![]()
新智元報道
編輯:元宇
【新智元導讀】從4.6到4.7,哪些舊禁令消失了?哪些新紅線被劃下?Claude進化的真相,全藏在它的system prompt更新細節里。
就在前兩天,Anthropic祭出Claude 4.7的同時,照例公開了Claude 4.7的「馴化手冊」,也就是那份系統提示詞(system prompt)。
![]()
https://platform.claude.com/docs/en/release-notes/system-prompts
Simon Willison在博客中對這份system prompt進行了逐行對比,哪里加了、哪里刪了、哪里改了措辭,全部標了出來。
不僅如此,他還直接在對話中讓Claude「自報家門」,拿到了一份23個工具的完整名單。
![]()
https://simonwillison.net/2026/Apr/18/opus-system-prompt/
他挖出的這些Anthropic自己沒有說的細節,要比官方的公告更有意思。
你每天對話的Claude
背后有一份幾萬字的「馴化手冊」
很多人可能還不知道,Anthropic是目前唯一一家長期公開自己聊天模型system prompt的頭部AI實驗室。
2024年7月Claude 3發布起,每次模型更新,Anthropic都會同步更新并公布它的prompt,每一版的system prompt都在那里,一路追溯將近兩年。
![]()
從最新的Claude 4.7往前看,Anthropic的system prompt更新依次覆蓋Claude 4.6、4.5、4.1、4、3.7、3.5,一直到Claude 3。
![]()
這意味著Claude是目前唯一一個你可以從文本層面追蹤「它被怎樣調教」的主流大模型:在這些公開的system prompt中,你可以看出Claude的進化軌跡。
比如,Claude被允許在什么情況下拒絕你,它被要求用什么語氣跟你說話,它在遇到哪些話題時必須踩剎車,等等。
Claude藏了23個工具
而你可能只是和它聊天
大多數人用Claude只是打字聊天。
這其實是嚴重的大材小用,好比你手里握著一把瑞士軍刀,卻一直在拿它削蘋果。
Simon在博客中還指出,Anthropic公開的prompt其實并不是全貌:它沒有包含提供給模型的工具描述,而這些工具才是Claude真正的能力邊界。
于是,他通過直接在對話中讓Claude「自報家門」,拿到了一份由Claude自述的工具名單。
一共23個工具,涵蓋信息獲取、文件操作、生活服務、社交通訊、記憶與上下文、平臺連接、交互輔助、交互輔助八大場景。
![]()
需要強調一點的是,這份清單來自Simon讓Claude自報的結果,并非Anthropic官方發布的工具白名單,但它與Anthropic當前公開的產品矩陣高度吻合。
更關鍵的是prompt里新出現的一個機制:tool_search,在4.7的prompt里明確寫道:
在斷定Claude缺少某項能力之前,Claude會先調用tool_search,檢查是否有一個相關工具可用但尚未啟用。只有在tool_search確認不存在匹配工具之后,「我無法訪問X」這樣的說法才是成立的。
也就是說,Claude被要求在說「我做不到」之前,先搜一遍自己到底能不能做到。
當一個AI系統掛載了成百上千個工具,不可能在每次對話中都全部加載,按需發現、按需調用,才是可擴展的方案。
Anthropic的官方tool search文檔也證實了這一點:
tool search讓Claude可以擴展到處理數百甚至數千個工具,并在需要時發現和調用相關工具。
![]()
https://platform.claude.com/docs/en/agents-and-tools/tool-use/tool-search-tool?utm_source=chatgpt.com
再看產品層面的外部信號。
就在4.7發布的第二天,4月17日,Anthropic推出了Claude Design。這是一款AI設計工具,能用自然語言生成原型、幻燈片和其他視覺物料。
公開報道顯示,在Claude Design相關計劃披露后,Figma股價一度下跌約6%。
更耐人尋味的是,Anthropic首席產品官Mike Krieger在發布前數天剛辭去了Figma董事會職務。
而在4.7的prompt里,工具列表已經涵蓋了Claude in Chrome、Claude in Excel、Claude in PowerPoint,再加上Claude Design、Claude Cowork……
大多數人把Claude當聊天框用,但Anthropic顯然不這么想,它正在把Claude變成一個AI工作操作系統。
你感受到的變化
全寫在prompt里
如果你最近頻繁使用Claude,你可能已經有一個模糊的感覺:它好像變了。
以前你丟一個模糊的需求過去,它會追問你三四個問題,現在直接就干了;
以前它的回答經常拖得很長,現在短了不少;
以前你說「好了,謝謝」,它還要追一句「還有什么我能幫你的嗎?」,現在不追了。
每一條變化,都預先寫在了prompt里。
比如,4.7新增了一個叫acting_vs_clarifying的段落,當用戶的請求中存在一些未明確的細節時,通常希望Claude直接做出合理嘗試,而不是先進行詢問。
![]()
當有工具可以用來消除歧義或補上缺失信息時,Claude會先調用工具來嘗試解決,而不是讓用戶自己去查。
一旦Claude開始處理一個任務,就會把它完成并給出完整答案,而不是做到一半就停下。
后面還跟著一串具體要求:搜索結果不對?換個詞繼續搜。多部分問題?每個都回答。搜到了信息?直接用它作答,別讓用戶自己去翻。
Anthropic的官方公告也呼應了這一點:Opus 4.7在遵循指令方面有顯著提升。
關于回復風格,4.7的prompt新增了一條:
Claude會讓自己的回復保持聚焦和簡潔,以避免過長的回答讓用戶感到信息過載。即便回答中需要帶上免責聲明或補充說明,Claude也會簡要說明,并把大部分篇幅留給主要回答。
關于不再強行續聊,也有明確規定:
如果用戶表示他們已經準備結束對話,Claude不會請求用戶繼續互動,也不會試圖引出下一輪對話。
把這些變化放在一起看,你會發現一個清晰的方向:Anthropic在把Claude從「對話助手」調教成「自主執行者」。
部分安全細節升級
誠實性和抗提示注入更進一步
能力變強了,自主性提高了,那安全呢?
4.7的prompt在安全方面做了一輪系統性升級,而且升級的顆粒度也非常細。
其中變化最大的是兒童安全。
4.6的prompt里就有兒童安全相關的內容。但到了4.7,這個部分被大幅擴展,整個被包裹在一個新的標簽里:critical_child_safety_instructions。
![]()
單從標簽名就可以看出它的優先級。
另一個首次被單獨命名處理的議題是飲食失調。
![]()
如果用戶表現出飲食失調的跡象,Claude就不應在對話中的任何地方提供精確的營養、飲食或運動建議,不提供具體數字、目標或分步驟計劃,即便本意是好的也不行。
還有一處細節,4.7在evenhandedness部分新增了一條:如果有人要求Claude對復雜或有爭議的問題只給「是」或「否」的簡短回答,Claude可以拒絕。
![]()
這可能是針對社交媒體上一種很常見的攻擊手法:截圖誘導。即讓AI就敏感話題回答「是」或「否」,然后把截圖斷章取義地傳播。
被刪掉的規則
是模型進化的證據
加規則容易,刪規則要更難。
因為每刪一條規則也意味著Anthropic已確信,新模型已經在訓練層面解決了某個行為問題,不再需要外部規則來矯正。
據Simon Willison的分析,4.7刪掉了好幾條4.6里存在的行為規范。
第一條:「Claude會避免使用用星號括起來的動作或情緒表達。」
早期Claude有個毛病:聊著聊著突然來一句「若有所思地點頭」或者「饒有興趣地湊上前」,像在演舞臺劇。
這個問題嚴重到需要專門寫一條prompt來禁止,現在這條禁令被刪了。
第二條:「Claude會避說說真的、老實說或直截了當地說。」
這三個詞是早期Claude的口頭禪。幾乎每隔幾句就來一個「說真的,我覺得……」,4.7把這條禁令也刪了。
還有一個名稱上的變化:「developer platform」被改成了「Claude Platform」。
![]()
![]()
看起來只是改了個名字,但去掉「developer」這個定語,意味著Claude的平臺定位不再只面向開發者。
這些prompt的「瘦身記錄」,也是模型被「馴服」的過程記錄:每刪一條規則,就說明有一個行為問題從「需要外部管控」變成了「內在已修復」。
它們合在一起,構成了一部有關Claude的微型進化史。
對用戶來說,這意味著你正在用的AI,可能比上一個版本更「原生地」懂得怎么做一個正常的對話者。
這份公開的prompt
是一種稀缺的行業透明
我們能讀到Simon這篇博客,這件事本身在AI行業就是一種稀缺的透明。
OpenAI不公開ChatGPT的system prompt,Google也不公開Gemini的。
Meta的Llama雖然開源了權重,但chat端的system prompt同樣不透明。
目前,Anthropic是唯一一家持續公開聊天產品prompt歷史的頭部實驗室。雖然,這次公開中并未給出模型的工具描述,但它仍然做了這個行業里別人都沒做的事。
這些寫在prompt里的規則,是真正在每一次對話中執行的指令,代表著Anthropic對「Claude應該成為什么樣的AI」這個問題的真實判斷和回答。
你每天跟AI說的每一句話,它怎么接、在哪里拒絕你、用什么語氣回你,全都不是隨機的:背后有一份不斷被修改的指令在控制一切。
目前,只有一家公司讓你看到這份指令長什么樣。
下次跟AI對話的時候,你可能會想:這句話,是它自己想說的,還是被要求說的?
參考資料:
https://simonwillison.net/2026/Apr/18/opus-system-prompt/
https://platform.claude.com/docs/en/release-notes/system-prompts
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.