核心提示:AI智能體迅速發展,但其在實際應用中因技術邏輯變化引發的安全風險等問題不容忽視。對智能體的監管和有效規制,應在充分理解技術邏輯基礎上,結合具體技術特征設計與之相適應的規制規則。
![]()
武丹/制圖
記者|任文岱
責編|薛應軍
正文共2810個字,預計閱讀需9分鐘▼
過去幾個月,AI智能體迅速發展,大模型在應用端已實現從“被動交互對話”到“自主執行任務”的進階。2026年開年以來,一款名為OpenClaw的開源人工智能體(昵稱“龍蝦”)在全球科技圈迅速走紅,成為人工智能領域的新熱詞,引發社會廣泛關注。
與此同時,在AI智能體的實際應用中,因技術邏輯變化引發的安全風險等問題同樣不容忽視。近期,針對國內一些政企機構及個人用戶的“養龍蝦”熱潮,工信部、國家安全部等監管部門接連發出安全風險提示。
今年全國兩會期間,2026年政府工作報告明確提出“深化拓展‘人工智能+’,促進新一代智能終端和智能體加快推廣,推動重點行業領域人工智能商業化規模化應用,培育智能原生新業態新模式”。作為“人工智能+”的重要實踐形態,AI智能體的快速落地既需要政策層面的鼓勵支持,更離不開法治框架的規范引導。
當前,新一輪科技革命和產業變革加速演進,人工智能已成為引領這一輪科技革命和產業變革的戰略性技術,正在深刻改變全球經濟格局和競爭態勢。全球主要經濟體都將人工智能視為重塑制造業競爭力的關鍵抓手。在此背景下,我國應如何應對智能體發展帶來的法治難題?中國政法大學人工智能法研究院院長張凌寒接受民主與法制社記者專訪時表示,智能體互聯網正在成為人工智能與網絡空間深度融合的重要趨勢,對智能體的監管和有效規制,應在充分理解技術邏輯的基礎上,結合具體技術特征設計與之相適應的規制規則。
智能體改變現有互聯網生態
2025年1月,生成式人工智能DeepSeek在全球爆火。此后一年間,各類生成式人工智能應用迅速走入大眾市場,與人類生活、辦公等應用場景深度融合。AI公司競相追逐誰的模型更強、更“聰明”,并在產品數量、模型性能及用戶規模等方面持續向好發展。
智能體到來后,AI不再靠“死記硬背”被動執行指令,而是開始自主去理解任務目標、與環境交互、進行深度推理、調用外部工具與服務、與其他智能體協作以完成各項任務。
OpenClaw作為開源模型,由用戶自主安裝部署、自行配置權限功能,在用戶授權下可以直接操作電腦,自主執行包括讀寫本地文件、整理文檔、安裝軟件、發送郵件等任務。這對以往互聯網生態中的系統安全架構、數據流轉、責任鏈條等都產生了沖擊。
有觀點認為,互聯網的下一站是從“信息互聯”邁向“智能體互聯”,AI智能體將成為網絡的“原生公民”。
張凌寒表示,智能體互聯網的確正在成為人工智能與網絡空間深度融合的重要趨勢。智能體互聯網的核心在于,從當前以信息傳遞與呈現為主的信息互聯網,轉變為以自主交互與任務協同為特征的行為互聯網。這意味著過往的“人找信息、人操作應用”變為“機器主動理解需求、自主完成調度服務”,這將顯著提升社會整體的智能化水平。
AI智能體的迅猛發展,引發社會各界對其中的安全治理、人機關系、技術路徑等問題的關注。
張凌寒說:“智能體帶來的影響更多來自其與現有應用平臺生態、風控策略及用戶習慣之間的碰撞。智能體的操作過程涉及多個應用與數據接口的調用,如何確保所有操作均符合用戶真實意圖并在法律法規與授權范圍內進行,需要持續關注。”
在技術設計、協議標準與制度安排等方面進行審慎平衡
3月10日,國家互聯網應急中心發布關于OpenClaw安全應用的風險提示稱,由于其默認的安全配置極為脆弱,攻擊者一旦發現突破口,便能輕易獲取系統的完全控制權。
該風險提示指出,由于OpenClaw智能體的不當安裝和使用,已經出現一些嚴重的安全風險:網絡攻擊者通過在網頁中構造隱藏的惡意指令,誘導OpenClaw讀取該網頁,可能導致用戶系統密鑰泄露;由于錯誤理解用戶操作指令和意圖,OpenClaw可能會將電子郵件等重要信息徹底刪除;多個適用于OpenClaw的功能插件已被確認為惡意插件,或存在潛在的安全風險,安裝后可執行竊取密鑰等惡意操作。
“智能體自主操作與用戶自行操作相比,主要體現在執行主體和交互方式的不同。”張凌寒表示,過去用戶需要在不同平臺間手動切換,現在AI智能體可以理解指令,并跨應用平臺自動調用功能,跳過了應用界面限制。這種互操作性的增強可能促進數據與資源的流動,有利于創新與協作,但也確實會對企業現有競爭優勢格局產生一定影響。同時,還可能引發用戶隱私、安全及權益保護等問題。
張凌寒認為,要綜合考慮市場實際與監管要求,在技術設計、協議標準與制度安排等方面進行審慎平衡,才能促進智能體向善發展。
張凌寒表示,在獲得手機或電腦系統、用戶及各應用軟件等授權的前提下,可以通過多種技術途徑增強智能體操作的安全性,進一步保障智能體在實際應用中的合規性與可靠性。例如,實施關鍵操作前的動態確認機制、建立全流程可追溯的操作日志、用戶實時干預與任務終止、持續關注補丁和安全更新、版本更新等功能。這些措施有助于提高智能體行為的可控性與透明度,推動智能體在安全性和用戶體驗方面不斷改進。
結合技術特征設計不同的規制規則
智能體給法治監管層面帶來的挑戰是多方面的。張凌寒表示,從法律與監管視角看,AI智能體的發展對現有規范與技術的結合提出了新的要求。隨著智能體技術的發展與應用,需重點適應以下幾個方面的變化:一是需進一步研究如何在智能體參與的多方協作場景中,合理明確各相關方的權責關系,以支持法律體系的持續完善。二是智能體具備跨應用調度與執行能力,這對行為可追溯性與系統可控性提出了更高的技術要求,相關機制有待在實踐中逐步建立與驗證。三是如何在智能體運行過程中持續落實個人信息保護法、網絡安全法、數據安全法等相關法律法規,值得研究。比如,如何在動態、連續的交互場景中落實用戶知情同意機制,確保用戶知情同意與數據安全等。
以智能體運行中的授權機制為例,張凌寒表示,目前,我國尚未專門針對智能體的授權機制進行立法規制。在現有法律框架下,涉及用戶授權、數據調用及跨應用操作等行為,仍屬于行業實踐與自律探索階段。
“AI智能體的授權機制是一個多元化、多層次的復雜系統,不同授權模式對應著差異化的技術實現路徑,而這些技術路徑又需要匹配相應的法律規制框架,需要結合具體技術特征再去設計不同的規制規則。換句話說,有效規制必須建立在充分理解技術邏輯的基礎上,這需要足夠的耐心與系統性的工作,無法簡單地一概而論,也不能一蹴而就。”張凌寒表示,總體而言,法律與監管需要持續探索適應性治理路徑,這一過程既需要理論層面的深入研究,也離不開在實踐中的持續試錯與機制完善。
在促進產業生態發展方面,張凌寒認為,智能體的部署與應用涉及多方協作,需在鼓勵創新與促進公平競爭之間尋求平衡,可推動建立適應智能體發展的數據使用與互聯互通規范,鼓勵在合規前提下開展技術協作與生態建設。通過行業標準引導、技術測試驗證與持續評估改進,也可以推動智能體在法律框架內穩步發展,實現安全與創新的協同推進。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.