![]()
作者 | Tina
2026 年 4 月 23 日,OpenAI 做了兩件事:發布了 GPT-5.5,并把價格翻了一倍。
按常理,這應該是屬于 OpenAI 的一天。全新預訓練架構“Spud”的首個公開版本,SOTA 級的基準測試成績,SemiAnalysis 在第一時間給出了“GPT-5.5 已經抵達前沿”的評價。但翻看定價頁面,開發者很難不算賬:每百萬輸出 token 收費 30 美元,比前代 GPT-5.4 貴了一倍,甚至比一貫以昂貴著稱的 Claude Opus 4.7 還要貴出一截。
而僅僅過了不到一天,4 月 24 日,DeepSeek 把 V4 的模型權重扔到了 HuggingFace 上。MIT 開源協議,100 萬 token 上下文窗口,以及一個極其低廉的價格:輸出 token 每百萬 3.48 美元。
大概只有 GPT-5.5 的十分之一。
科技博主兼 AI 系統架構師 Sean Donahoe 在今天凌晨發了一條帖子。他寫道:
“DeepSeek V4 Pro 在編碼基準測試中擊敗了 Claude Opus 4.6 和 GPT-5.4...... 今天早上,我把 Claude Code、Codex、Cursor、Aider,以及我用的所有其他編程智能體全部指向了 DeepSeek 端點。不用 OpenRouter,不用代理,原生 API。我的月賬單將下降 90% 以上,而且效果比昨天還好。”這條帖子實際上有兩個看點。第一,發帖人是重度 AI 編程用戶,卻幾乎一夜之間完成遷移,月賬單會從幾千美元降到幾百美元。第二,他不只是說便宜,還強調效果沒有變差,反而更好:“輸出質量提高了,而不是下降,這一點已經通過內部測試以及多個公開基準驗證”。
![]()
DeepSeek 出手之后,價格成了第一變量
過去三個月,模型競爭激烈。幾乎每周都有一家頭部模型廠商發布新的 coding checkpoint,GLM-5.1、Qwen3.6-Plus、Kimi K2.6、Composer 2、Gemini 3.1 Pro,都在強調同一件事:agentic coding、長任務、多步驟規劃。
![]()
進入 4 月,圈子里一直在討論兩個代號:Anthropic 的“Capybara”和 OpenAI 的“Spud”。4 月 23 日,GPT-5.5 正式發布,成為基于“Spud”的公開版本。對 OpenAI 來說,這是 GPT-4.5 之后一次很關鍵的預訓練模型更新,外界期待很高,價格也不低。有分析指出,雖然 NVIDIA 和 OpenAI 都提到 GPT-5.5 在 10 萬臺 GB200 NVL72 集群上“訓練”,但這里的“訓練”更準確地說是強化學習的后訓練階段。真正的預訓練,仍然是在 Hopper 平臺上完成的。
但只過了不到 24 小時,DeepSeek V4 開源。模型競爭一下子不只是在比誰更強,也開始比誰更便宜。
OpenAI 的旗艦模型過去通常比 Anthropic 更便宜,但這一次不一樣了:GPT-5.5 的 API 定價為每百萬輸入 token 5 美元、每百萬輸出 token 30 美元,比前代 GPT-5.4 貴了一倍,甚至比 Claude Opus 4.7 的輸出定價還貴出一截。
更值得注意的是,OpenAI 為 GPT-5.5 設計了一套復雜的定價分層。除了標準 API 之外,OpenAI 還提供了一個優先級(priority)套餐,價格是標準檔的 2.5 倍。如何為“更快的 token”收更多錢,正在變得越來越關鍵。這里需要說明的是,priority 和 fast mode 是兩回事。fast mode 只是給出一些相對模糊的承諾,比如“價格貴 6 倍,速度大約快 2.5 倍”;而 priority 提供的是更保守但更明確的 SLA(例如:99% 的時間里吞吐量超過 50 tokens/s)。
這還沒算 GPT-5.5 Pro——專為科學研究和長程推理設計的版本,輸入 / 輸出定價分別為每百萬 token 30 美元和 180 美元,瞄準的不是日常編碼場景,而是前沿科研用例。
標準版和 Pro 版都提供多檔推理強度:xhigh、high、medium、low 以及 non-reasoning,本質是在成本與能力之間做取舍。從 strawberry/o1 那一代開始,這一點已經很明確了:推理強度越高,結果通常越好,但消耗的 token 更多,響應時間也更長。
在 GPT-5.5 發布前一周,Anthropic 剛剛推出 Claude Opus 4.7。相比 4.6,Opus 4.7 更像一次小幅升級,沒有帶來明顯質變。
Token 計數方式的更新,是這次定價變化里最關鍵的一點。4.7 使用了新的 tokenizer,通過更細粒度的切分來換取性能提升,但代價是整體 token 用量會上升。官方也直接承認,這會帶來最高約 35% 的 token 增長——換句話說,價格也等于變相上漲了 35%。
然后 DeepSeek V4 來了。
V4 系列包含兩個模型:DeepSeek-V4-Pro 和 DeepSeek-V4-Flash。前者參數規模為 1.6T 總參數 / 49B 激活參數,后者為 284B / 13B。相比 V3(671B / 37B)是一次升級,而 Flash 是一個更輕量的下探版本。這使得 DeepSeek-V4-Pro 成為目前規模最大的開源權重模型。
把價格拉出來對比,差距大到讓人無法忽視。簡單算一筆賬:同樣處理一百萬輸入 token 和一百萬輸出 token,GPT-5.5 的合計成本是 35 美元,Claude Opus 4.7 是 30 美元。而 DeepSeek-V4-Pro 是 5.22 美元。如果輸入命中緩存,輸入價格進一步降至每百萬 token 0.145 美元,同樣這筆賬就變成了 3.625 美元。
也就是說,在標準定價下,DeepSeek-V4-Pro 的成本大約是 GPT-5.5 的七分之一、Claude Opus 4.7 的六分之一。如果緩存命中,差距進一步拉大——大約是 GPT-5.5 的十分之一、Claude Opus 4.7 的八分之一。
真正把價格壓到“近零地帶”的,是 DeepSeek-V4-Flash。V4 Flash 的 API 輸入價格每百萬 token 僅 0.14 美元,輸出價格 0.28 美元,合計 0.42 美元。緩存命中后進一步降至 0.308 美元。同等輸入輸出量下,Flash 的成本不到 GPT-5.5 和 Claude Opus 4.7 的 2%——便宜了 98% 以上,幾乎只有對方的百分之一。
![]()
如果把當前主流模型的定價放在一張表里看,這種分化更加直觀:
![]()
更重要的是,DeepSeek V4 走的是 MIT 開源協議。這意味著開發者完全可以把模型部署在自己的服務器上,不走 API 調用,直接繞開 token 計費邏輯。對于有合規要求、數據不能出域的場景,這個選項的權重甚至超過價格本身。
V4 相比 V3 的核心進展,是上下文窗口從 128k 提升到了 1M。因此,這一代的技術優化幾乎都圍繞長上下文展開,包括:
Compressed Sparse Attention(CSA):壓縮稀疏注意力
Heavily Compressed Attention(HCA):高壓縮注意力
Manifold-Constrained Hyper-Connections(mHC):流形約束超連接
對應的效果是:“在百萬 token 上下文場景下,DeepSeek-V4-Pro 的單 token 推理 FLOPs 僅為 V3.2 的 27%,KV cache 僅為 10%。”也就是說,KV cache 減少了 90%。這個幅度甚至超過了上個月 Google TurboQuant 的論文,對 NAND Flash 產業鏈來說,是個需要警惕的信號。
在工程層面,DeepSeek 還在 DeepGEMM 中開源了一個 Mega-Kernel,宣稱支持 NVIDIA GPU 和華為 Ascend NPU。可以看出,他們的目標之一,是未來在 Ascend 上承載一部分推理流量。官方 API 頁面還提到,受限于高端算力,目前 V4-Pro 的服務吞吐仍有限,預計下半年昇騰 950 超節點批量上市后,Pro 價格會大幅下調。
![]()
業界實測效果
三款模型,三種定價邏輯:OpenAI 在漲,Anthropic 在偷偷漲,DeepSeek 則直接掀桌。如果只看數字,選擇幾乎沒有懸念。
不過,DeepSeek 自己也承認,和頂尖選手之間還有距離。他們在技術報告里寫道:“通過增加推理 token 的使用量,DeepSeek-V4-Pro-Max 在標準推理基準上優于 GPT-5.2 和 Gemini-3.0-Pro,但仍略遜于 GPT-5.4 和 Gemini-3.1-Pro,距最前沿模型大約還有 3 到 6 個月的差距。”
那么,實際效果如何呢?
在 Sean 宣布全面遷移的同一天,AI 研究員 Rohan Paul 和他的團隊做了一個測試:給 DeepSeek V4 Pro 和 GPT-5.5 同一份提示詞,開發一個完整的卡丁車競速游戲,全部塞進一個 HTML 文件。
提示詞嚴苛到像一份游戲策劃需求書:Canvas 渲染,方向鍵和 WASD 雙套操控,加速、剎車、漂移、倒車一個不能少。物理引擎從零手寫,摩擦力、最高速度、轉向靈敏度全部要調。賽道有路面、草地、彎道和窄路,沖上草地減速,撞墻彈回。至少 3 輛 AI 對手,自動沿賽道行駛,速度各異。道具系統要有金幣、加速板和隨機道具箱。畫面全用 Canvas 形狀手繪,漂移拖痕、加速尾焰、屏幕震動,一個視覺效果都不落。音效用 Web Audio API 合成,倒計時、碰撞、沖線都要出聲。UI 要完整:標題畫面、3-2-1 倒計時、實時 HUD、結束排名。
最終的數據對比是這樣的:
![]()
DeepSeek V4 Pro 輸出了近兩倍的 token,但便宜了 4.3 倍。至于兩個游戲跑起來分別是什么樣子,我們直接上視頻,你自己體驗。
如果說卡丁車測試考察的是“能不能做一個完整產品”,那同一天另一個測試考察的則是更微妙的東西——審美。做出來的頁面“好不好看”,任何人都能一眼判斷。
中文技術社區的一位開發者用同樣的提示詞、同樣的工具,讓 DeepSeek V4 Pro 和 GPT-5.5 各自生成一個 Apple 風格的天氣界面。提示詞給了一個很高的起點:
“你是 Apple Inc 的頂級 UI 設計師,以 iOS 18 的設計風格(毛玻璃效果、高斯模糊、動態漸變、細膩陰影)創建一個單個 HTML 文件。實現橫板天氣頁面,包含 4 個并排的動畫天氣卡片:晴天(太陽光線、動態光暈)、大風(飄動云朵、搖曳樹木、風線)、暴雨(下落雨滴、形成水洼、閃電)、暴雪(下落雪花、堆積效果)。卡片需深色背景,支持按鈕切換天氣狀態,實現流暢交互和微動效。代碼必須可直接運行,美觀度優先。”
工具也完全統一,兩個模型生成時,用的都是 Claude Code。你猜哪個是 DeepSeek 的?
生成結果 1 如下:
![]()
生成結果 2 如下:
![]()
不過,在日常問題上,DeepSeek 確實更強:
![]()
![]()
科技博主 Simon Willison 有一個習慣:每次 DeepSeek 發布新版本,他都會用同一句提示詞 “Generate an SVG of a pelican riding a bicycle”,生成一張鵜鶘騎自行車的 SVG。這次 V4 發布,他照例做了一遍,也照例把歷代結果放在一起。
從 2025 年 3 月的 V3,到 8 月的 V3.1,再到 12 月的 V3.2,以及現在的 V4,每一版都比上一版更像樣。早期的鵜鶘歪歪扭扭,腳踏板對不準,自行車架子也松散。到了 V3.2,車架結實了,鵜鶘也開始像個正經騎手。這次 V4-Flash 又往前走了一步:鏈條畫出來了,前輪加了反光片,翅膀搭在車把上,腳也踩到了踏板上。總之,是一次比一次好。
![]()
DeepSeek-V3-0324
![]()
DeepSeek-V3.1
![]()
DeepSeek-V3.2
![]()
DeepSeek-V4 Flash
![]()
DeepSeek-V4 Pro
DeepSeek 在 V4 發布當天,用一句話表明了他們對這些討論的姿態——“不誘于譽,不恐于誹,率道而行,端然正己。”
這也恰好解釋了這只鵜鶘一年來的軌跡。
https://x.com/rohanpaul_ai/status/2047762509474726285
https://simonwillison.net/2026/apr/24/deepseek-v4/
https://linux.do/t/topic/2045480
https://venturebeat.com/technology/deepseek-v4-arrives-with-near-state-of-the-art-intelligence-at-1-6th-the-cost-of-opus-4-7-gpt-5-5
會議推薦
世界模型的下一個突破在哪?Agent 從 Demo 到工程化還差什么?安全與可信這道坎怎么過?研發體系不重構,還能撐多久?
AICon 上海站 2026,4 大核心專題等你來:世界模型與多模態智能突破、Agent 架構與工程化實踐、Agent 安全與可信治理、企業級研發體系重構。14 個專題全面開放征稿。
誠摯邀請你登臺分享實戰經驗。AICon 2026,期待與你同行。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.