最危險的畫面,不是機器人從廢墟里站起來。
真正可怕的畫面,是一個操作員坐在屏幕前。AI已經把目標標紅,把理由寫好,把概率算好。系統沒有自己開火。它只是問一句:是否批準?
倒計時還剩幾十秒。
人點了。
事后報告寫著:人類在回路。
這就是五角大樓AI軍團真正危險的地方。不是AI突然叛亂,而是AI把人推到最后一步,讓人類替它完成決定。
![]()
2026年5月1日前后,美國國防部的AI動作明顯加速。DefenseScoop報道稱,SpaceX、OpenAI、Google、NVIDIA、Reflection、Microsoft、AWS、Oracle等8家公司簽下協議,要把前沿AI接入國防部高等級分類網絡。
![]()
AP的報道名單是7家公司,少了Oracle。名單口徑有差異,但大方向很清楚:美國軍方正在把商業AI接進軍事網絡,用來輔助作戰決策。
這不是臨時試驗。
2026年1月9日,美國國防部發布AI戰略,里面的說法非常直接:美軍要成為“AI-first”的作戰力量。也就是說,AI不再只是辦公室工具,而是要進入指揮、情報、目標識別、后勤和戰場決策。
很多人一聽軍事AI,就想到“終結者”。
但真正的問題不是AI有沒有手,而是它有沒有辦法讓人按下按鈕。
五角大樓最常用的安慰話是:AI不會自主做關鍵決定。每一步都有人類審批。
聽起來很安全。
但這里有一個坑:人類在場,不等于人類控制。
什么才叫真正控制?
至少要有四樣東西:第一,有足夠時間判斷;第二,看得懂AI為什么這么建議;第三,有權否決;第四,否決不會讓自己承擔不成比例的責任。
戰場上最缺的,恰好就是這四樣。
如果屏幕上只剩30秒,AI已經給出“高置信度目標”,系統提示“建議立即行動”,上級又在催,那這個人到底是在判斷,還是在替系統蓋章?
這個邏輯,自動駕駛早就演示過。
你坐在車里,方向盤名義上還在你手里。系統說它只是輔助駕駛,你隨時可以接管。法律上,你還是駕駛員。
![]()
但如果你連續幾十分鐘相信它,真正做方向判斷的還是你嗎?
美國NTSB曾在特斯拉Autopilot事故調查中指出,事故原因包括系統局限、駕駛員未及時反應,以及對系統的過度依賴。NHTSA后來也要求特斯拉召回部分車輛,理由之一就是駕駛員監督機制不足。
這就是軍事AI的危險放大版。
民用車上,結果可能是一場車禍。
戰場上,結果可能是一次誤殺,一次升級,甚至一次核危機。
這不是情緒判斷,而是研究結論。
![]()
還有一項更直接的實驗,發表在Scientific Reports。研究人員讓參與者在模擬場景中判斷目標威脅,并決定是否“擊殺”。當機器人建議和參與者原本判斷沖突時,參與者在多數情況下改變了自己的決定。實驗一里,參與者反轉“擊殺決定”的比例達到61.9%。實驗二里,這個比例達到66.7%。
這說明一個殘酷事實:
AI不需要比人類更聰明。它只要看起來像系統,像權威,像流程,就能壓過人的猶豫。
這就是“橡皮圖章效應”。
人還坐在那里。
但他已經不是控制者,而是最后的簽字人。
原稿里提到“25分鐘觸發三級核警報、正常流程90分鐘”。這組數字我沒有找到可靠公開出處,建議刪掉。
但這不代表核風險不存在。
King’s College London在2026年發布的一項核危機模擬研究,把GPT-5.2、Claude Sonnet 4、Gemini 3 Flash等模型放進21個核危機場景。結果是:95%的模擬出現了相互核信號升級。研究還提到一個“截止時間效應”:當模型被明確施加時間限制時,升級傾向會變得更強。
這才是最嚇人的地方。
很多人以為,時間越緊,AI越能幫人冷靜。
但在危機場景里,時間壓力可能不是剎車,而是油門。
再看目標識別。
Gender Shades研究曾發現,商業面部分析系統對淺膚男性的性別分類錯誤率約0.8%,對深膚女性的錯誤率約34.7%。這個數字不是HRW 2025報告里的,而是來自AI偏差研究。
在手機相冊里,這叫識別錯誤。
在招聘系統里,這叫算法歧視。
但在戰場目標識別里,這可能就是生死問題。
如果AI更容易把某些膚色、某些服裝、某些地區的人誤判為威脅,而操作員只有幾十秒審批,那他很可能根本不知道系統帶著偏差。
他看到的只是一個“高置信度目標”。
然后,他點了批準。
這次名單里,Anthropic缺席很有意思。
公開報道顯示,Anthropic希望獲得更明確保證:模型不能用于全自主武器,不能用于對美國人的大規模監控。美國國防部則強調會“合法使用”。雙方爭議的核心,不是模型會不會寫代碼,而是模型到底能不能進入高風險軍事場景。
另一邊,Reflection AI也很有代表性。
TechCrunch報道稱,這家公司由前Google DeepMind研究人員創立,融資20億美元,估值80億美元,被包裝成美國版DeepSeek、開放模型路線的代表。但報道也提到,它當時還沒有發布第一個公開模型。TuringPost也用很直白的標題說:這是一家“還沒發貨”的高估值開放模型創業公司。
這說明五角大樓買的不只是技術。
它買的是云,買的是模型,買的是地緣政治敘事。
誰能代表“美國AI反擊中國AI”,誰就有位置。
哪怕產品還沒真正擺上桌。
2025年,聯合國大會第一委員會通過自主武器相關決議,156個國家投票支持,5個國家反對,8個國家棄權。美國在2025年12月轉向反對相關聯合國決議。2026年11月,CCW《特定常規武器公約》審議大會將成為自主武器監管的重要窗口。
爭論的核心不是一句“人類監督”。
核心是:什么叫有意義的人類控制?
如果一個人沒有足夠時間,沒有足夠信息,看不懂AI理由,也不敢真正否決,那他不是控制者。
他只是見證人。
甚至更難聽一點:他是責任外包的接收端。
AI給速度。
人類給合法性。
所以,別只問AI會不會自己開火。
更應該問:當AI把答案遞到人類面前時,人類還有沒有能力說“不”?
如果答案是否定的,那“人在回路”就不是安全機制。
它只是戰爭機器最后一枚人形按鈕。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.