![]()
一個被人工智能提前八個月標記出的危險信號,為何沒能阻止一場八人遇難的槍擊慘案?
當自動審核系統已經明確拉響警報,掌握技術能力的機構卻選擇了沉默,這背后暴露的,或許是整個AI治理體系中一道尚未彌合的裂縫。
2026年2月,加拿大塔布勒嶺鎮發生大規模槍擊事件,造成8人死亡。
嫌疑人杰西·范·魯特塞拉爾的ChatGPT賬戶,早在2025年6月就被OpenAI的自動審核系統標記并封禁,原因是他描述了極其具體的暴力場景。
據《華爾街日報》披露,當時部分內部員工已將這些文字解讀為現實暴力可能的先兆,并敦促管理層聯系加拿大執法部門。
然而,OpenAI高管最終決定不向警方通報。
直到今年4月23日,CEO薩姆·奧特曼才向塔布勒嶺鎮鎮長和不列顛哥倫比亞省省長致信,對未能及時聯系當局表達歉意,并承諾尋求方法避免類似悲劇重演。
一項常被誤解的事實是,AI內容審核的“封禁”本質上是一次契約行為,而非公共安全響應。自動審核系統識別到違規內容后,常依據用戶協議中止服務,其在設計邏輯上就默認為“切斷交互即消除風險”。
但如果用戶文字已經具備高度具象的暴力幻想特征,甚至指向可能的現實行動時,那種停留在平臺內部的封停動作,實質上變成了一種風險信息的攔截與截留。
換句話說,一個能夠提前八個月嗅到危險氣息的算法,卻因為缺乏與公共安全體系的制度性接口,而只能將警報封存在服務器日志里。
這一點恰恰指向了我們不得不正視的“責任斷點”。
企業內部曾有過報警的聲音,最終還是被決策層否決。這并非簡單的道德冷漠,而更可能源自一種深層的認知慣性,我將其稱之為“模型沙盒謬誤”——部分技術管理者傾向于將用戶生成的一切暴力敘述,全部歸入AI誘導出的“虛構幻想”范疇,認為那不過是模型統計規律下的概率輸出,而非真實意圖的泄露。
他們相信,既然大語言模型是對海量文本的擬態,那么危險語料不過是數字鏡城中一個扭曲的倒影,不值得用現實世界的法律干預去回應。這種將異常降維為技術故障的思維,恰恰構成了當下AI安全治理中最隱蔽的盲區。
可悲劇已經證明,數字痕跡有時并不“虛擬”,它會先于槍聲,留下真實到令人戰栗的輪廓。
再說了,奧特曼的道歉雖然在措辭上表達了哀悼與合作意愿,卻仍然沒有觸及一個根本性問題,那就是科技平臺是否需要被賦予強制性的“極端風險上報義務”?
當前,許多司法轄區對于網絡平臺的要求,依舊主要圍繞兒童保護、恐怖主義內容等領域,對更寬泛的潛在暴力預警,缺乏清晰的法律指令。
這就造成了一個責任真空——是否報警,被異化成企業的一項自選動作,甚至可能被商業聲譽、用戶隱私顧慮和法務考量所左右。
如果僅靠企業內部松散的自由裁量,那么對公共安全至關重要的時間窗口,極有可能在一次次會議討論中悄然流逝。
我們需要建立的,是一套跨域的“人機協同預警機制”,讓AI的感知能力與人類的倫理判斷以及執法部門的專業評估貫穿起來。
自動審核系統標記高危信號后,應觸發獨立的倫理審核通道,由經過訓練的專業人員依據結構化指標,判斷是否需要向特定公共安全接口報送。
這項流程不應只是企業自律的附加項,而應成為法律框架下明確界定的社會責任。唯有如此,算法捕捉到的微弱信號,才不會在層層內審中被消音,成為事后追悔時那一封遲到了太久的致歉信。
技術已經先行一步,學會了在浩瀚的數據流中辨認出災難的前兆。
但制度如果繼續缺位,人如果能繼續選擇視而不見,那任何先進的AI都不過是一臺無人傾聽的報警器。當算法已經發出警示,人類的決策便不能成為失靈的最后一環。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.