![]()
芯東西(公眾號:aichip001)
作者 程茜
編輯 漠影
芯東西4月20日報道,剛剛,浙江杭州GPU創企曦望完成新一輪超10億元融資,這是2026年AI產業全面邁入”推理落地、智能體普及”時代后,國內GPU賽道誕生的最大單筆融資之一。
本輪資金將用于新一代S3推理GPU的規模化量產交付、全棧軟件生態建設,以及S4/S5后續芯片的研發迭代。
此次融資由多家產業方戰投、地方國資及頭部財務機構共同參與。豪華投資方陣容正用真金白銀,押注這家主攻推理的國產GPU創企。至此,分拆獨立僅一年多的曦望已累計完成7輪融資,總融資額約40億元,成為國內首家估值超百億的純推理GPU獨角獸。
作為國內首家All in推理的GPU企業、首批實現推理GPU萬卡級交付的芯片公司,曦望成立于2020年,前身是商湯科技大芯片部門,2024年底分拆獨立運營,目前其團隊規模約400余人,集結來自英偉達、AMD、昆侖芯、商湯等企業的研發人才。
如今其已悉數亮相三顆芯片,最新的啟望S3是曦望為下一代大模型推理打造的高性價比GPU芯片,致力于以極致的單位算力成本,全面開啟AI推理的“一分錢時代”。
![]()
智能體時代,企業損益表正被全面重構。智能體已然成為核心生產力,以OpenClaw為代表的智能體應用迅速走紅,數據中心也隨之轉型為持續吞吐海量數據、輸出智能內容的“Token工廠”。在未來的AI服務體系中,Token將成為可直接計價的數字商品,AI服務也將依據吞吐量、速率、智能密度等維度對其進行分層定價。
在這樣的行業邏輯下,成本與效率成為競爭的關鍵勝負手,誰能將單位Token成本壓至更低、讓能效比達到更高,誰就能占據市場主導地位。
而從創立之初便深耕推理領域的曦望,恰好踩中了智能體時代的核心命門:正如芯片領域對功耗、性能、面積的極致追求一樣,若能將AI推理成本大幅降低90%,同時保障服務穩定可靠,便能真正改寫中國AI產業的損益結構,讓AI從高投入的燒錢模式走向可持續的商業化正循環。
一、智能體時代,Token成本成企業關鍵運營指標
過去數年,AI發展核心圍繞訓練展開,參數、集群、算力投入決定模型能力上限;如今AI深度參與各類復雜工作,直接推動行業焦點轉向推理。
這一趨勢的重要性,被一組關鍵數據印證:英偉達創始人、CEO黃仁勛在GTC 2026大會稱,過去兩年AI推理計算量增長約一萬倍、使用量增長約一百倍。
![]()
▲英偉達創始人兼CEO黃仁勛GTC大會演講
2026年初的OpenClaw熱則直接改寫了Token消耗邏輯,AI智能體一次復雜任務會觸發數十次連續推理請求,Token消耗由此呈現指數級爆發的態勢。
![]()
▲OpenRouter平臺上AI模型每周使用量趨勢
這背后對企業而言就是不可預估的成本。本月初,外媒The Information拿到一份Meta內部追蹤員工Token使用量的數據,過去30天內,Meta全員Token總消耗量超過60萬億個,若按照當時Claude Opus 4.6的公開定價估算,其排名第一月均使用2810億Token的用戶,一個月的成本就超過140萬美元(約合人民幣954萬元)。
更值得警惕的是,大量Token并未被有效利用,而是被無效浪費,成為企業算力賬單的隱形成本。Hyperbolic聯合創始人金宇晨曾在社交平臺X平臺上吐槽,GPT-5.4 Pro是他用過最愛“過度思考”的模型,他僅發了一句簡單的“Hi”,模型直接燒掉80美元。
![]()
這進一步推高云廠商硬件與運營成本,導致全球云廠商集體漲價。3月至今,阿里云、百度云、騰訊等國內云廠商紛紛官宣調價,阿里云平頭哥真武810E等算力卡產品上漲5%—34%,文件存儲CPFS(智算版)上漲30%;百度智能云AI算力相關產品上調約5%—30%,并行文件存儲上調約30%。云廠商的一系列調價動作,本質上都是推理成本壓力的直接傳導。
Token爆發、云廠商漲價的雙重作用下,企業推理成本壓力愈發凸顯。推理服務能否長期穩定運行、實現高效吞吐、控制合理成本,已成為企業核心的訴求。
與之對應,行業不再單純追逐芯片峰值算力,而是通過系統級創新,重新定義“每瓦Token”這一核心KPI,以此破解成本困局。
對企業而言,過去比拼的是工人、設備與廠房規模;而在智能體時代,核心競爭力將取決于單位成本能調用多少有效Token、每個智能決策能創造多少價值。
“每瓦Token”不僅是技術指標,更是企業關鍵的運營成本指標。同等電力、同等機柜空間下,能產出更多有效Token,意味著企業可以用更少機房、更低電費支撐更大業務規模,在算力密集型競爭中構筑顯著的成本壁壘。
這一背景下,中國已成為這場全球算力革命的核心戰場。根據OpenRouter數據,中國大模型周調用量已連續6周超美國,周調用量達?12.96萬億Token?,是?美國的4.28倍。中國已成為全球AI推理最大市場,推理成本的壓力與機遇在此集中顯現。
一方面,國內擁有旺盛的推理算力需求和海量豐富的應用場景,為推理技術的迭代與落地提供了堅實基礎;另一方面,企業對低成本AI的迫切訴求,也倒逼行業加速探索成本優化的路徑。
AI要實現像水電一樣普及,第一道必須攻克的關口,就是將推理成本從“元級”壓縮至“分級”。而破解這一困局的關鍵解法之一,便是打造一類為推理而生、為成本優化、為規模化部署量身定制的專屬GPU。
二、能落地、能萬卡、能省錢,才是下一代推理算力的真正門檻
作為國內首家All-in推理的GPU企業,曦望是在行業集體卷訓練、拼參數時,基于產業發展判斷做出的反共識但極具前瞻性的戰略選擇。
其核心目標不是取代、對標訓推一體GPU或通用AI芯片,而是只做推理分流側翼與成本優化層,在不改動客戶現有技術棧的前提下,直接實現降本增效,用更高的推理性能重構AI產業成本結構。
如今曦望已形成芯片、解決方案、生態三位一體布局,而這整套體系直接回答的就是一個問題:推理GPU,究竟該強在哪里?
今年1月,曦望發布的新一代推理GPU芯片啟望S3,正是對這一問題的有力回應。作為國內首款搭載LPDDR6且兼容LPDDR5X內存的推理GPU,S3從AI Core計算架構到內存IO系統進行了全鏈路重構。
在計算層,S3進行了深度定制,其推理性能較上一代S2提升5倍,目標是實現Token成本下降90%。
S3實現了極致算子利用率、智能體原生微架構、全鏈路FP4低精度三大核心突破。包括128-bit、3D指令集搭配獨立線程調度,配合片上數據復用技術,適配智能體復雜推理;原生支持FP16到FP4低精度運算,主流大模型推理效果接近無損,吞吐量較FP16提升3~4倍,直接提升客戶盈利空間;將GEMM、Flash Attention利用率分別提升至約99%、98%,硬件有效算力與并發能力大幅提升。
![]()
在系統層,S3集成LPDDR6內存接口技術、高速SerDes+SUE融合互聯技術、PCIe Gen6接口技術三大先進高速接口,解決了智能體三大核心瓶頸。
首先LPDDR6方案使得S3帶寬充足、容量大幅提升、功耗降50%+;兼容 LPDDR5x,可靈活推出多規格產品,覆蓋邊緣至云端推理,可以破解推理場景大容量、高性價比、低功耗的核心需求。
其次, S3采用了片上原生融合Scale-Up+Scale-Out雙模底座;以太網超節點引擎支持一跳直達、硬件加速集合通信,利舊交換機并可壓延遲至百納秒級;集成RDMA引擎,優化KV Cache零拷貝傳輸,支持32–256彈性組網。這一系列創新是針對智能體多模型協同瓶頸的有效解法。
最后PCIe Gen6接口技術下,S3帶寬較Gen5翻倍,支撐多路高速網卡與NVMe 集群;構建顯存-DRAM-NVMe三層異構KV Cache,實現熱溫冷數據分層管理,高效擴展容量;同時兼容業界標準,無縫融入云原生高性能體系。這對應解決的是智能體的資源碎片化問題。
由此可見,S3押注的是,徹底剝離訓練能力,專為大模型推理做原生深度優化。其砍掉訓練相關模塊后,節省的晶體管與功耗全部傾斜于推理,讓單位面積有效算力效率提升超5倍。
因此一定程度上可以說,S3是更適合智能體時代的原生芯片。在曦望董事長徐冰看來,S3不是簡單的性能升級,而是一次對AI推理成本曲線的重構。他們的目標是將推理成本降至“百萬Token一分錢”,讓AI像水電一樣成為普惠基礎設施。
這與當下的智能體浪潮不謀而合,智能體時代真正的瓶頸不在模型能力,而在規模化、低成本、高穩定的推理供給。
在芯片之外,曦望已構建起完整硬件矩陣,包括寰望超節點集群、辰望計算平臺、寰望AI計算集群,其中,寰望SC3-256超節點可支持千億、萬億級參數多模態MoE推理,同?量級下,成本僅為千萬元級別。
曦望并未止步于硬件層,而是持續向上延伸,構建起完備的算法與生態能力,實現大模型適配優化、AI算法平臺、場景定制算法,同時自研AI軟件棧、CUDA兼容生態、主流框架支持。
從芯片到集群,從底層軟件到上層算法,可以看出,曦望的All-in推理不是口號,而是真正從芯片到系統的全棧重構。
三、芯片基因+AI洞察,曦望領跑推理算力時代
對算力發展清晰研判需要對AI和芯片的洞察都更清晰。從商湯大芯片部門獨立而來的曦望,就自帶“芯片基因+AI應用經驗”,為其切入新一代算力賽道構筑了先天壁壘。
其領導團隊精準搭建了以AI產業布局、芯片頂尖研發、互聯網產品商業化為核心的“黃金三角”架構:
曦望董事長徐冰是商湯聯合創始人,曾于?港中??學博?在讀期間與導師湯曉鷗教授共同創辦商湯。商湯不僅是彼時國內AI領域的標桿企業,更在2021年成功登陸港股,成為“港股AI第一股”,其在AI算法、場景應用上積累了經驗。
負責研發的曦望聯席CEO王勇,是前AMD、昆侖芯的核心架構師,有20年芯片研發經驗,主導昆侖芯及曦望多代芯?的研發量產。2020年加入商湯后,他帶領百人團隊主導了曦望兩代芯片的研發和量產,均實現一次性成功點亮。
與王勇的技術研發能力形成互補,另一位聯席CEO王湛擁有憑借豐富的互聯網產品運營經驗,王湛是百度創始團隊成員、前資深副總裁,曾領導數千?團隊打造了百度搜索引擎產品。
![]()
▲曦望董事長徐冰、曦望聯席CEO王勇、曦望聯席CEO王湛(從左至右)
憑借核心團隊的獨特優勢,曦望在算力與AI賽道中形成了差異化競爭力。
其核心團隊親身經歷國內最早一批大規模AI應用、人臉識別、自動駕駛、多模態等多個技術周期與應用場景,歷經用戶需求的反復打磨捶打,對AI技術的落地痛點、算力需求的核心痛點有著更為精準的洞察,也讓曦望成為更懂AI的GPU芯片企業。
在這樣的布局下,曦望目前的團隊規模已經達到400余人,研發人員占比超過80%,匯聚了英偉達、AMD、華為海思、百度昆侖芯、阿里巴巴、商湯等各賽道的頭部企業人才,且核心技術人才平均擁有15年行業經驗。
基于對AI和芯片賽道的判斷,曦望從創立之初便立足企業業務需求側,聚焦為客戶核算實際價值賬,而非單純比拼參數,由此搶先卡位推理時代。
曦望董事長徐冰透露,2026年,曦望將圍繞”落地、兌現、增長”核心原則,全力推進S3芯片量產交付,完成與國內外主流大模型、多模態模型和Agent框架的全面適配。同時,該公司已完成S4高性能推理GPU和S5安全可控推理GPU的技術路線規劃,持續加碼近存計算、光電共封等前沿技術探索。
曦望的資本化布局正在穩步推進,2026年2月,其完成股份制改造,成為浙江省首家完成股改的GPU企業,深度融入杭州爭創全國AI創新發展第一城的發展大局。
本次投資方的代表為杭州資本,這是其緊扣杭州“296X”先進制造業集群建設戰略、深耕AI能萬億級產業賽道的重要布局,他們認為,曦望“All-in推理”的戰略選擇具備行業前瞻性,其在技術創新和產品商業化方面的能力,是他們決定投資的重要原因。作為長期資本,杭州資本更看重企業在關鍵技術方向上的持續投入與落地能力。
結語:AI產業進入能效決勝時代
當下AI產業已從拼參數、堆算力的粗放階段,進入單位Token成本與能效比的精細化競賽。對企業而言,Token成本不斷下探,就意味著其商業化邊界能不斷拓寬。
未來,智能體帶來的鏈式調用與并發爆發,將直接推動Token需求增長10倍乃至百倍,推理算力的缺口只會持續拉大。最終,這場以Token效率為核心的革命,將讓AI真正融入千行百業,從技術概念變為實體經濟的增長引擎。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.