八年前,AlphaGo擊敗李世石已經讓人類見識過AI的潛力。但Anthropic聯合創始人最近拋出的一個設想,可能比那更瘋狂:未來的AI系統或許能完全自主地"造出比自己更強的版本"。
這不是科幻小說的橋段。據Axios報道,Anthropic研究所于5月7日發布了一份名為《Anthropic研究所的重點關注領域》的論文,首次系統性地提出了"遞歸自我改進"(recursive self-improvement)這一概念。簡單來說,就是讓AI參與AI自身的研發與迭代。
![]()
論文中有一段描述格外引人注目:"你可以對它說:'做一個更好的你自己。'然后它就完全自主地去做了。"這種場景下,人類只需要下達一個模糊的指令,后續的設計、訓練、優化全部由AI自行完成。Anthropic將其歸類為"AI for AI R&D"的研究方向——光是這個標簽,就足以讓人停頓片刻。
這家公司并非憑空制造焦慮。兩個月前,Anthropic悄然成立了這家研究所,初衷是應對"強大AI將給社會帶來的最重大挑戰"。作為幾乎"無意中"打造出Mythos模型的公司——該模型能夠發現幾乎所有系統的隱藏漏洞,無論新舊——Anthropic似乎感到一種特殊的責任:在問題爆發前,先把蓋子掀開。
論文的大部分內容其實是冷靜的實證分析:誰在用AI、為什么用、人們如何看待這些工具。但"遞歸自我改進"這一節明顯不同調。它描述的不是當下,而是一個"近期且令人擔憂"的可能性。如果一家頂尖AI公司認為這事可能發生,市場很難不認真對待。
值得注意的是,Anthropic此時正面臨雙重壓力。一方面,它在與SpaceX合作獲取更多算力以擴張平臺;另一方面,它又在公開警告"過于強大的AI"帶來的威脅。這種"邊加速邊剎車"的姿態,本身就成了行業的一個縮影。
研究所的設立目標很明確:研究這些技術的真實世界影響,并"或許為避免最壞結果提供一些指導"。但論文也承認,對于遞歸自我改進的具體路徑和時間表,目前更多是方向性的判斷而非確定預測。
一個核心矛盾在于:如果AI真的能夠自主迭代,那么傳統的安全管控框架是否還適用?人類設定的護欄,會不會在下一代系統中就被繞過了?這些問題論文沒有給出答案,但把問題擺上了臺面。
從Mythos到遞歸自我改進,Anthropic的敘事軌跡清晰可見——它正在從一個"意外造出危險工具"的公司,轉向主動定義風險話語的參與者。這種轉變背后,既有商業考量,也有 genuine 的安全焦慮。但無論如何,當一家AI公司開始嚴肅討論"AI造AI"的場景時,整個行業都需要重新校準自己的時間表。
論文最后落腳于"提供指導"而非"制造恐慌",但字里行間的緊迫感難以忽視。對于25-40歲的技術從業者來說,這份文件的價值或許不在于它給出了什么結論,而在于它確認了一件事:那個曾經遙遠的"奇點"敘事,正在被主流玩家納入近五年的規劃視野。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.