本周,特朗普政府態度急轉,與Google DeepMind、微軟和xAI簽署協議,要求這些企業在發布前沿AI模型前后接受政府安全檢查。
此前,特朗普曾固執地拋棄拜登時期的政策,將自愿性安全檢查視為阻礙創新的過度監管。上任后不久,他將美國AI安全研究所更名為"AI標準與創新中心"(CAISI),刻意去掉"安全"二字,公開嘲諷拜登。
![]()
但Anthropic宣布暫緩發布其最新Claude Mythos模型——擔心惡意行為者利用其高級網絡安全能力——后,特朗普突然開始關心AI安全了。據《財富》雜志報道,白宮國家經濟委員會主任Kevin Hassett透露,特朗普可能很快簽署行政令,強制要求政府在高級AI系統發布前進行測試。
![]()
CAISI在新聞稿中承認,谷歌、微軟和xAI簽署的自愿協議"建立在"拜登政策基礎之上。中心主任Chris Fall慶祝新合作時未提及Mythos,但承諾"擴大的行業合作"將幫助CAISI在"關鍵時刻"以公共利益為導向擴大工作規模。
"獨立、嚴謹的測量科學對于理解前沿AI及其國家安全影響至關重要,"Fall表示。
![]()
CAISI稱目前已完成約40項評估,包括尚未發布的前沿模型。測試時,CAISI經常獲得"減少或移除安全限制"的模型訪問權限,稱這使其能更"徹底評估國家安全相關能力與風險"。政府還將通過評估更好理解模型能力。為確保評估人員及時掌握政府各部門出現的頂級國家安全關切,一個"跨機構專家組"已成立專門工作組,聚焦AI國家安全問題。
部分簽約企業對CAISI測試計劃表示信心。Google DeepMind前沿AI全球事務副總裁Tom Lue在LinkedIn上稱對CAISI測試計劃感到"滿意"。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.