2024年4月29日,路透社報道:自DeepSeek V4模型發布后,多家東大大陸網絡與云端企業正加速向某廠下單,帶動新一波搶購潮。
![]()
英偉達H200雖然已經批準對華銷售,東大企業也有大量意向訂單,但西大立法機關的強烈反對,東大監管的力度依然不減,角力導致卡死,至今沒有實際出貨。
因此,字節跳動、騰訊與阿里巴巴等大型企業,近期均已主動接觸某廠洽談新一批芯片訂單。其它從事云端運算與GPU租賃服務的業者,也紛紛加入搶購行列,市場需求快速升溫——As--cend 950系列芯片需求迅速攀升,2026年預計出貨75萬顆。
![]()
隨著主要云端平臺迅速導入DeepSeek V4模型,例如阿里云與騰訊云同步上線相關服務,大幅擴大AI應用規模,也進一步推高底層芯片需求。DeepSeek甚至推出限時75%價格優惠,刺激開發者使用。業界預計,即使有75萬顆,950PR也難以滿足市場需求。2026年下半年950PR大規模量產后,才有可能緩解。
![]()
950PR芯片,已經明顯優于英偉達先前在大陸獲準銷售的H20晶片,但仍略遜于H200。 而DEEPSEEK V4型號包括兩個版本:V4-Pro,參數1.6萬億,V4-Flash有2840億參數,均支持一百萬令牌上下文窗口。
![]()
950PR是目前東大唯一支持大模型壓縮技術的東大國產芯片,可在降低成本的同時提升運算效率。
兵器迷注:
大模型壓縮技術,是指在盡可能保持精度的前提下,通過技術手段壓縮模型、加速推理計算,從而降低AI模型的大小和推理延遲。主要的大模型壓縮技術,分為量化、剪枝、知識蒸餾、低秩分解四大路徑。
![]()
量化:即降低權重與激活值精度減少模型體積與計算量。
剪枝:通過去除冗余參數減少計算量。
知識蒸餾:利用教師模型指導學生模型(學生)訓練,傳遞軟標簽、特征或注意力分布。(Anthropic Claude Mini將模型縮至1/10大小仍保留85%以上性能)
低秩分解:將大矩陣分解為低秩子矩陣,減少參數與計算。
更為重要的是,As--cend 950打造的SuperNode架構,全面支持V4模型運算需求,完成了整體產品線適配;反過來,DeepSeek V4專門針對某廠芯片進行了全線優化。
不僅如此,更為難得的是:2026年4月24日,DeepSeek正式上線V4預覽版并宣布開源時,國內三大AI芯片商,同日宣布對該大模型版本給予適配——
寒武紀完成DeepSeek-V4“Day 0”適配
海光DCU完成DeepSeek-V4“Day 0”適配
摩爾線程S5000 + 智源FlagOS:基于原生FP8引擎,Day-0適配DeepSeek-V4
這種國產算力與大模型生態協同進階,軟件-硬件協同優化的雙向奔赴,象征東大AI產業正在基礎底座上逐步降低對西大半導體依賴。
難怪黃仁勛在Dwarkesh podcast 上說:“如果有一天,DeepSeek 首度在華為芯片上發布,那將是對我們西大而言一個可怕的結果”。
西大對東大的出口管制正產生反效果——加速東大AI產業的內部整合。在近年來的東大AI發展中,已經開始呈現芯片、框架、算子庫、通信庫、編譯器、集群調度和模型算法協同迭代的曙光。
這種“被迫”的深度融合,可能”催生出一個完全去A化的、垂直整合的AI技術棧,形成兩個AI生態系統”——黃仁勛最擔心的其實是這個。
AI大模型與國產芯片的共同體生態,是東大建立本土獨立技術體系的一個縮影——軟硬件雙向奔赴,新生態靜待花開。由此管中窺豹,我們可以看到:東大推動科技自主的戰略方向之路,正在逐漸拓展、和延伸...
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.