就在《紐約時報》披露特朗普政府有意加強AI模型審查的第二天,三家科技巨頭便迅速作出回應。據《華爾街日報》報道,谷歌、微軟和xAI已與特朗普政府達成協議,將在新模型公開發布前,率先向美國政府開放訪問權限。
根據協議內容,這三家公司將把前沿模型提交至美國商務部下屬的AI標準與創新中心(CAISI)進行前置評估。該中心將圍繞模型能力與安全性兩大維度展開審查。值得注意的是,OpenAI和Anthropic早在2024年就已與商務部達成類似安排。截至目前,CAISI已完成超過40次新模型發布前的評估工作。
![]()
CAISI主任Chris Fall在接受《華爾街日報》采訪時表示:"獨立、嚴格的測量科學對于理解前沿AI及其國家安全影響至關重要。這些擴大的行業合作幫助我們在關鍵時刻擴大公共利益方面的工作。"這一表態將技術評估與國家安全框架緊密綁定。
時間線上的密集動作耐人尋味。本周早些時候,《華爾街日報》還報道稱特朗普政府正在醞釀一份"以網絡安全為重點的行政命令",擬設立一個監管小組,專門為AI模型制定標準。兩條消息接連釋放,勾勒出監管意圖的清晰輪廓。
然而,政府與AI企業之間的張力并非始于今日。今年早些時候,特朗普政府與Anthropic的公開沖突曾引發廣泛關注。導火索是Anthropic明確提出,反對政府將其AI聊天機器人Claude用于戰爭或大規模監控用途。隨后,美國政府將Anthropic及其產品定性為國家安全供應鏈風險。這一事件暴露出商業合作與倫理底線之間的深層矛盾。
回溯特朗普政府的整體姿態,其AI政策呈現出明顯的競爭導向。此前,該政府多次強調美國企業必須在AI領域保持對中國競爭對手的優勢,整體立場偏向支持AI產業發展。但此次前置審查機制的落地,標志著"放"與"管"之間的平衡正在發生微妙偏移。
從五家企業的參與格局來看,協議覆蓋了當前美國AI領域的主要力量:谷歌(Gemini系列)、微軟(與OpenAI深度綁定)、xAI(Grok)、OpenAI(GPT系列)以及Anthropic(Claude)。這種"全覆蓋"式安排,意味著前沿模型的發布節奏或將系統性受到政府評估環節的影響。
對于行業而言,前置審查機制可能帶來雙重效應。一方面,安全評估的常態化有助于建立技術信任;另一方面,評估周期的不確定性可能壓縮企業的迭代速度,尤其在模型競爭日趨白熱化的當下。更值得觀察的是,CAISI的評估標準尚未公開,其技術判斷與商業決策之間的邊界如何劃定,將直接影響這一機制的運作效果。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.