2026年馬年央視春晚舞臺上,多款人形機器人集中亮相,成為中國具身智能技術發(fā)展的一次全民級集中展示。具身智能作為“十五五”規(guī)劃建議重點發(fā)展的未來產業(yè),正從技術驗證邁向規(guī)模化應用的新階段。技術進步永遠需要規(guī)則護航。如何完善法律法規(guī)和技術標準,以相應的治理策略確??萍际冀K堅持向善而行,在把握機遇的同時積極化解挑戰(zhàn),成為當前具身智能產業(yè)健康、穩(wěn)步發(fā)展中的重要議題。

(來源:央視春晚)
隨著具身智能從實驗室走向實際應用,一系列法律與倫理問題日益浮現(xiàn),對社會治理與法律制定提出挑戰(zhàn)。中國科學院自動化研究所研究員趙曉光指出,一是數(shù)據(jù)隱私風險。具身智能通過傳感器(攝像頭、麥克風)持續(xù)收集環(huán)境數(shù)據(jù)(如家庭布局、人臉圖像、對話內容),可能侵犯隱私。若被企業(yè)非法出售,可能存在不公平競爭,甚至威脅個人安全的隱患。二是責任劃分難題。當具身智能自主決策導致人身損害,如手術機器人失誤致患者受傷、配送機器人撞傷行人等,責任如何劃分?是開發(fā)者(算法缺陷)、使用者(操作不當)還是機器人“自主行為”?現(xiàn)行法律如民法典僅對“產品責任”有規(guī)定,但未明確“自主決策機器人”的責任主體。三是倫理邊界爭議。具身智能的“自主學習”能力,可能支持其突破預設規(guī)則。例如,安保機器人若通過學習認為“暴力制服可疑人員更高效”,是否會違反“不傷害人類”的倫理原則?四是知識產權界限模糊。具身智能的核心是“硬件+算法+數(shù)據(jù)”的融合,硬件專利、算法著作權、訓練數(shù)據(jù)權屬,可能分屬不同主體,如高校研發(fā)算法、企業(yè)生產硬件、醫(yī)院提供醫(yī)療數(shù)據(jù),一旦產生收益,如何分配?
專家認為,唯有以法治為基石、以倫理為準繩,堅持創(chuàng)新與規(guī)范并重,方能讓具身智能真正成為造福社會的有力引擎。綜合趙曉光、中國科學技術大學科技哲學系教授徐飛等人觀點,一是探索專門立法,構建穩(wěn)定可預期的制度基礎。新興產業(yè)需要明確的法律身份和規(guī)則指引。首要舉措是制定專門的促進型法律法規(guī),對“具身智能機器人”等重要概念作出清晰定義,厘清人機協(xié)作情境下的權責邊界,明確產業(yè)發(fā)展的基本原則、監(jiān)管框架和政府職責。這類立法應秉持“包容審慎、安全可控”的原則,在鼓勵技術探索與商業(yè)模式創(chuàng)新的同時,劃出基本的倫理與安全底線,建立產業(yè)發(fā)展的良性循環(huán)。
二是制定分級分類監(jiān)管機制。按“應用場景風險等級”監(jiān)管,如工業(yè)機器人(低風險)、醫(yī)療/養(yǎng)老機器人(中風險)、安保/軍事機器人(高風險),確保系統(tǒng)可控、可管、可追責,使技術發(fā)展始終遵循法律和道德的邊界。同時,探索“沙盒監(jiān)管”等創(chuàng)新機制,在特定區(qū)域中試點新技術與商業(yè)模式,允許企業(yè)在可控環(huán)境中測試新技術,同時收集風險數(shù)據(jù)用于規(guī)則優(yōu)化。
三是推動制定行業(yè)標準與倫理指南。在地方層面積累實踐經(jīng)驗后,將成功實踐上升為行業(yè)規(guī)范,聯(lián)合制定技術標準,如“觸覺傳感器安全閾值”“自主決策透明度要求”(機器人需記錄決策過程,方便追溯)等。建議發(fā)布《具身智能倫理指南》,明確技術人員與相關主體的倫理責任,以及“不得設計具有自主傷害能力的機器人”等底線原則。設立常設性倫理咨詢委員會,對公共服務中的人機交互、數(shù)據(jù)隱私等議題進行持續(xù)評估與指導。
參考資料:
1. 從機器人到具身智能:人工智能的“具身化”演進
2. 治理智能化:對具身智能的積極應對
3. 以制度創(chuàng)新護航具身智能機器人產業(yè)發(fā)展
來源:法治網(wǎng)輿情中心(ID:fzwyqzx)
策劃統(tǒng)籌:付萌
分析師:
新媒體編輯:劉思源
編輯:靳雪林