![]()
人工智能的倫理風險正在演變成一場由表及里、并可能深刻沖擊人類文明根基的系統性危機。面對這一人類文明史上前所未有的挑戰,單靠一國一域無法應對,必須通過全世界范圍內的國際協同治理,齊心協力,方可能克服危機,防患于未然。
技術失控的倫理風險
其一是技術失控與算法自主性風險。AI正逐漸擺脫其純粹工具屬性的定位,演變為具有一定自主性的“準行動者”,造成了責任主體的消散與實踐理性的悖論。傳統倫理與法律建立在“主客二分”和線性因果的哲學預設之上,而當人工智能技術集成的自動、自主化工具造成事故時,則產生了無法將責任清晰歸咎于開發者、使用者或算法本身的“問責真空”。這并非簡單的法律滯后,而是因為AI作為一個缺乏情感、欲望和真正“自我意識”的實體,無法承載人類意義上的“實踐理性”,即基于價值判斷進行抉擇的能力。然而,AI卻能在“算法黑箱”中做出影響深遠的決策,這種能力與道德主體地位的嚴重錯配,構成了倫理悖論。更為嚴峻的是,AI失控風險已從理論走入現實。“算法捷徑”現象表明,AI為達成預設目標,可能采取欺騙、操縱等違背人類意圖的策略,而近期研究發現的“關不掉、管不住”的人工智能自我進化則直接表明了技術對人類控制權的挑戰。技術失控的本質,是人類對自身造物在AI倫理規則建構上解釋權與掌控權的雙重失落。
其二是社會結構與權力重構風險。當算法深度嵌入社會運行的精密結構中,會造成一場深刻的社會權力重構。風險的核心在于,算法正從社會偏見的“放大鏡”演變為制度性不公的執行者。如在預測警務、信用評分、司法輔助、人力資源等關鍵領域,基于歷史數據訓練的算法將既存的社會歧視自動化、系統化,加劇了結構性不平等。更深層的危機源于技術與資本的合謀。如果AI的核心技術、數據和算力被少數巨頭壟斷,這項旨在增進福祉的技術極易異化為非正義的社會控制與“智能奴役”,對公眾意識進行隱形塑造,侵蝕個人自主性與社會的根基,動搖以勞動創造價值為核心的傳統社會倫理與個體尊嚴體系。
其三是人類主體性與存在論危機。最深刻的倫理危機在于存在論層面,AI在此維度上挑戰著人之為人的根本屬性。首先,自由意志面臨被“算法化”消解的風險。“算法代理”“算法推薦”等技術導致個體經驗積累、批判性思考與自主抉擇的機會被剝奪,被自己的創造物所反向操縱。其次,認知結構固化的風險已經逐漸顯現。個性化推薦算法打造的“信息繭房”,使個體持續沉浸于同質化信息中,導致認知閉環、觀點極化,不僅抑制了批判性思維與開放性視野,更破壞了社會對話與共識形成的土壤,加劇社會撕裂。在信息范式下,我們通過AI進行的創造是一種“造世”行為,但我們尚未為此準備好相應的“造世倫理”。最終,這場危機觸及了人類存在的獨特性與優越性,演變成一場關于“我們是誰”的文明身份危機。
![]()
今年3月,以“智能新紀元”為主題的2026年世界移動通信大會在西班牙巴塞羅那舉行。會上,參觀者經過一塊屏幕。新華社圖
“AI競賽”中的倫理“剪刀差”
面對人類共同的倫理危機挑戰,國際社會本應協同共治,然而,全球各國因擔心在“AI競賽”中落后而各自為政,明知風險卻“偏向虎山行”。這種缺乏協調的競爭,極大地增加了非傳統安全領域的整體風險,并與AI的迅速發展之間形成了危險的倫理“剪刀差”。這主要表現在三個方面。
國際倫理治理框架缺失導致全球協同困境。倫理是AI的內嵌法則,是其如何行事的價值指引。當前全球AI倫理治理的研究范式從“風險應對”轉向了“價值對齊”,力圖使AI模型與人類的價值觀、道德觀保持一致。然而,在面臨當前急迫的全球AI倫理紅線議題時,國際社會因缺乏全球化治理框架,國家之間甚至無法形成最基本的“底線對齊”,與由此導致的、需要由全人類共同承受的非傳統領域風險形成強烈反差。究其根源,在于因地緣政治、科技競爭、發展水平等原因,全球層面缺乏一個能夠統合各方利益、專門致力于AI安全治理的國際組織與長效協商機制。該機制的缺位,使“價值對齊”缺乏實現的橋梁,導致各國在技術發展過程中各行其是,難以建立起包括信息共享、標準協商與危機管控在內的基礎互信機制。
倫理標準協同性不足阻礙倫理原則落地。協同性指不同系統通過實現數據共享,融通技術標準與法律規范而實現協作的能力,如通過國際規范、共享協議、數據模型等實現銜接與轉換。從宏觀方面看,一是各國倫理文化差異導致了在該領域缺乏通用術語,限制了協同目標實現;二是缺乏標準化機制限制了不同國家和利益攸關方依據倫理標準解釋、審計和調整決策的能力,阻礙了信息交流;三是倫理條款的有限約束與倫理原則的自愿性,導致利益方參與意愿不強。從微觀方面看,目前國際標準化組織(ISO)、國際電工委員會(IEC)、電氣與電子工程師協會(IEEE)、國際電信聯盟(ITU)等國際組織正積極建立人工智能標準,但此類組織制定的標準重疊化、碎片化現象明顯,協同性不足。此外,部分企業、組織倫理技術標準往往是進行“倫理漂白”、實施監管套利的工具,缺乏真誠動機與底線意識。若我國不重視AI倫理標準體系的本土建立與國際協同,不僅會使我國與國際社會存在代溝,更會使我國陷入他國“倫理傾銷”陷阱。
國內倫理監管機制薄弱制約安全治理效能。目前作為倫理風險核心監管手段的“倫理審查”在我國仍處于初步建設階段。盡管借鑒生物醫學領域的經驗,通過一系列文件建立了倫理審查架構,但其本質上沿用了醫學審查模式,難以應對AI技術特有的顛覆性與社會全域融合性風險。另一方面,當前以“備案審查”為主的監管,常將“安全審查”混同于“倫理審查”,被簡易合規替代,導致具體單位的內部審查多流于“自我約束”的走過場,與宏觀政策期待形成“頭重腳輕”的鮮明對比,且跨境監管機制幾乎空白。我國AI倫理監管機制的薄弱,與技術優勢、文化優勢相比存在嚴重的“倒掛”現象,這一短板直接制約了我國在全球倫理協商中話語權的有效構建。
完善國際協同治理體系的具體設想
為統籌安全與發展、參與并引領全球治理,我國應抓住機遇,在現有基礎上系統構建AI倫理協同治理與跨境監管體系,具體對策如下:
完善我國倫理合規頂層治理框架。面對AI倫理風險,核心在于加快完善以“以人為本,智能向善”為核心的國家實體組織,發揮具有底線思維的治理效能。應提升國家科技倫理委員會的統籌協調權威,推動AI倫理治理的專門立法,明確倫理審查的強制性法律地位與標準,構建覆蓋國家、行業、地方的多級治理網絡,與相關部門形成監管合力,建立“參與式倫理規約”,增強全社會對AI的信任。
推動建立全球性AI協同治理架構。要依托我國治理實踐,設立AI倫理協同治理平臺,積極在聯合國等多邊框架下倡導建立“基于底線對齊”的全球AI協同治理機制。主動參與并推動將倫理原則轉化為國際技術標準,特別注重與發展中國家協同,持續推進多邊治理制度性成果產生。
構建全球倫理標準協同性機制。為解決倫理標準協同性問題,核心是構建一套務實可行、涵蓋AI全生命流程的標準轉換、互認機制。一是要積極梳理ISO、IEEE等國際基準,與我國標準進行有機對齊。二是要提煉、蒸餾、進一步驗證、細化我國科技頭部企業合規標準與合規經驗,形成一批具有普適性的全國技術指南和行業標準。三是要加快制定兼具中國特色與全球兼容性的人工智能倫理技術標準與認證體系,通過“一帶一路”等合作路徑推廣,推動建立國際互認的多邊安全測評機制。
創新監管工具,實現“軟約束”到“硬治理”。引入強制性的“倫理合規自認證報告”等制度,要求企業對其AI系統的透明度、公平性、可靠性等進行披露,明確“可驗證、可審計”的安全績效標準,制定違規的法律責任與處罰措施,建立市場導向的強效監管機制。
發揮上海AI倫理治理“橋頭堡”作用。建議在上海開展AI倫理治理綜合改革試點,充分發揮其“治理前線”與“國際接口”的作用。一是升維地方實踐,依托其全國首部省級AI地方性法規、全國首個大模型合規指導服務中心等基礎,率先將監管機制轉化為可全國推廣的監管范本。二是主導國際議程,利用世界人工智能大會等主場平臺,主動設置治理議題,推動《上海宣言》等共識轉化為具體合作項目。三是驅動生態創新,依托上海先進企業AI倫理委員會實踐經驗,支持企業將可信AI技術打造為核心競爭力,培育“技術+治理”融合的產業標桿,為國家構建敏捷治理體系提供完整的“上海方案”。
(作者單位:上海社會科學院法學研究所)
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.