![]()
![]()
頭條號小編 首發呈現
大好河山,邀您共看
Hello,大家好呀!歡迎來到老墨聊時事,
一家把“別讓AI闖禍”掛在嘴邊的公司,最后卻被美國國防部貼上“供應鏈風險”標簽,這事聽著就有點黑色幽默。
2026年2月底,AI巨頭企業Anthropic因拒絕按軍方要求放松模型安全限制,先被威脅停用,隨后正式遭五角大樓封殺,相關合同也迅速旁落到OpenAI等對手手里。
按理說,它做的是安全;按美國政府的說法,它妨礙的也是“安全”。同一個詞,到了不同人嘴里,意思竟能差出十萬八千里。
這雙方嘴里的安全究竟有什么不同?為什么這家企業會遭到美國如此針對?
![]()
![]()
Anthropic從出生起,走的就不是普通創業公司的路子。
它是2021年由Dario Amodei等前OpenAI核心成員創立的,出走的緣由很直接,對老東家越來越重商業、越來越快沖規模這件事不放心,想自己搭個更強調AI安全的攤子。
它對外講得很明白,重點不是把模型做得多會聊天,而是先管住它別亂說、別亂干。
說白了,別人像在造跑車,它先研究剎車。
這家公司最有辨識度的設計,叫“憲法AI”。
意思不復雜,就是先給模型立規矩,再讓模型按規矩學說話、學做事。
比如不鼓勵暴力,不順著歧視走,不給危險用途開綠燈。
它還搞出一套“負責任擴展政策”,大意是模型能力越強,安全門檻也得越高;要是安全措施跟不上,理論上就該踩剎車。
這個思路很像給一輛越跑越快的車裝多重保險,嘴上不喊豪言壯語,動作里卻透著一種理工科式的謹慎。
也正因如此,Anthropic很快把“安全”做成了自己的商業名片。
可問題也藏在這兒。Anthropic越強調獨立、安全、克制,就越需要巨額資金和海量算力來支撐這種“克制”。
亞馬遜先后對它投入約80億美元,谷歌累計投資約30億美元,公司發展和訓練資源都深度綁定大廠。
![]()
理想主義當然還在,賬單也是真的。
你可以把它理解成一個一心想當清流的人,最后發現自己每天喝的水、吃的飯、用的電,都得靠巨頭供應。
嘴上講原則,腳下踩的卻是資本鋪的地板,這種反差從一開始就埋下了。
![]()
Anthropic并不是被美國軍方突然盯上的。
其實早在2023年,它就開始主動接觸美國國防和情報系統。
到了2024年,它與多家公司合作,把Claude推向聯邦和國安場景。
2025年7月,美國國防部又向Anthropic等幾家公司分別授予最高2億美元的AI原型合同。
Anthropic一度被視為第一批真正進入美軍機密網絡的前沿大模型供應商之一,風頭相當足。
![]()
Anthropic對此并不遮掩,它的想法大致是,AI遲早會進入國家安全體系,與其讓別人隨便用,不如自己進去盯著,至少能給它套上幾道籠頭。
公司還劃了紅線,不允許用于大規模國內監控,也不允許用于全自主致命武器。
這套邏輯聽起來很像“以武止戈”的科技版,意思是我可以進軍營,但我要帶著安全說明書進去。
麻煩出在政治風向變了。2025年底后,美國政府和軍方在AI問題上的口風明顯更硬。
根據多家媒體披露,新的采購和使用要求開始強調,模型必須支持“所有合法用途”。
這句話看似平平無奇,實則分量極重。翻成大白話就是,合不合法由政府認定,能不能用不能由公司卡著。
![]()
軍方并不想要一個會思考倫理邊界的合作方,它想要的是一把絕對聽話、隨時能拔出來的工具。
Anthropic拒絕了,并且公開表示,不能接受取消這些防線,因為那可能讓產品被用于大規模監控美國民眾或全自主武器。
到了2026年2月下旬,雙方談判基本談崩,美國政府下令聯邦機構停止使用Anthropic技術。
3月5號,五角大樓正式將其列為“供應鏈風險”。
沒過多久,OpenAI等公司便接手了更多政府與防務業務。整套動作速度很快,意思也很直白,你不愿意完全服從,那就請你出局。
事情走到這一步,沖突的本質就全露出來了。Anthropic口中的“安全”,是技術要設紅線,哪怕面對軍方也不能全開閘門。
美國軍方口中的“安全”,是AI必須服從國家戰略需要,企業不能保留道德否決權。
前者講條件合作,后者要無條件可控。兩邊都在說安全,卻根本不是一回事。
Anthropic原本以為自己是幫美國把AI管得更穩,結果美國政府給出的答案是,真正讓它不安的,不是你的模型不夠安全,而是你這個供應商不夠聽話。
![]()
![]()
Anthropic一路走來的底層思維,跟“有效利他主義”關系很深。
這套理念主張用理性計算的方法,追求最大化的善。
聽上去挺高級,也挺像數學題,錢要花在最有效的地方,資源要投向能救更多人的方向,連今天做什么妥協、明天承擔什么代價,都可以拿來算總賬。
放在Anthropic身上,很多表面矛盾的動作就都能被解釋通了。
快跑,是為了搶到更安全的主導權;拿巨頭的錢,是為了有條件研究更安全的模型;接近軍方,是為了把風險關在制度里。
![]()
每一步都像是在做收益與風險的加減法。
問題在于,這套算法有個容易塌方的地方,它特別依賴前提正確。
只要前提錯了,后面算得再漂亮,也可能是南轅北轍。
它面臨的實際上是同一種結構性陷阱,就是太相信理性計算能駕馭復雜現實。
它以為自己能一邊和資本深度捆綁,一邊保持精神獨立;能一邊進入軍方系統,一邊保留紅線;能一邊參加國家安全競賽,一邊不被國家安全邏輯反噬。
你去和強權做條件交換,強權通常只記得“合作”,不太愿意接受“條件”。
最有諷刺意味的一幕,是Anthropic自己也開始松動了。
2026年2月,它發布RSP 3.0,拿掉了過去那種“不安全就暫停”的硬承諾,改口說單方面暫停并不能真正幫助世界安全。
公司高管對外解釋得很現實,競爭對手都在往前沖,自己單獨踩剎車沒有意義。這話不能說全錯,問題是它和當年批評OpenAI時的口氣,已經越來越像了。
那個總說別人跑太快的人,最終也開始擔心自己掉隊。
老墨就給大家聊到這了,下期內容我們不見不散~
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.