![]()
算力優(yōu)勢,不再自動(dòng)等同于效率優(yōu)勢。競爭的關(guān)鍵已不在于“誰更強(qiáng)”,而在于“誰更高效地定義基礎(chǔ)設(shè)施”。
文|胡嘉琦ID | BMR2004
2026年春季科技發(fā)布會密集召開,美國加州圣何塞再次成為全球算力競爭的風(fēng)暴中心。隨著新一代芯片、互連技術(shù)與系統(tǒng)級產(chǎn)品集中發(fā)布,英偉達(dá)(NVIDIA)創(chuàng)始人兼CEO黃仁勛將2025—2027年的市場預(yù)期上調(diào)至1萬億美元,體現(xiàn)了當(dāng)AI邏輯從“訓(xùn)練”向“推理”大遷移后帶來的發(fā)展機(jī)遇。
英偉達(dá)并未止步于芯片,而是不斷擴(kuò)展邊界。在真實(shí)的產(chǎn)業(yè)運(yùn)行中,芯片只是入口,圍繞算力展開的,是一整套更為龐大的支出體系,包括高帶寬內(nèi)存、服務(wù)器集群、數(shù)據(jù)中心、電力系統(tǒng)、液冷散熱以及貫穿其間的高速互連網(wǎng)絡(luò)。
《商學(xué)院》記者從英偉達(dá)方面獲悉,英偉達(dá)推出了光電一體化封裝網(wǎng)絡(luò)交換機(jī)Spectrum-X Photonics,助力“AI工廠”擴(kuò)展至數(shù)百萬GPU級別。同時(shí),英偉達(dá)發(fā)布NVIDIA Spectrum-X與NVIDIA Quantum-X硅光網(wǎng)絡(luò)交換機(jī),使AI工廠能夠跨區(qū)域連接數(shù)百萬GPU,在大幅降低能耗的同時(shí)優(yōu)化運(yùn)營成本,實(shí)現(xiàn)電子電路與光通信的深度融合。
這一系列動(dòng)作都表明,AI不再是一個(gè)單點(diǎn)產(chǎn)品市場,而更像是一場圍繞基礎(chǔ)設(shè)施展開的系統(tǒng)性競爭。芯片、網(wǎng)絡(luò)與存儲被重新組織,作為整體能力落地到產(chǎn)業(yè)。
01
推理時(shí)代:算力體系的重構(gòu)與性能爆發(fā)
以集中化、規(guī)模化為特征的算力供給方式,能夠高效支撐大模型訓(xùn)練與推理需求
在這一輪技術(shù)與產(chǎn)品的集中發(fā)布中,一個(gè)更直觀的信號是:AI算力的組織方式正在被重新定義。
在本屆GTC上,Groq 3 LPU首次亮相,使Rubin平臺的核心計(jì)算芯片擴(kuò)展至7顆。與此同時(shí),英偉達(dá)將其與5個(gè)機(jī)架級系統(tǒng)打包,形成一整套AI超級計(jì)算機(jī)方案。
這種變化并非偶然,而是直接回應(yīng)了當(dāng)下最核心的需求。大模型訓(xùn)練與推理正在進(jìn)入規(guī)模化階段,隨著模型參數(shù)步入萬億級時(shí)代,傳統(tǒng)服務(wù)器架構(gòu)逐漸難以承載,行業(yè)不得不轉(zhuǎn)向更高密度、更低延遲的系統(tǒng)級整合。
但是相比之下,Google的TPU、Cerebras的晶圓級芯片以及Groq等廠商的專用推理架構(gòu),能夠在單位能耗、響應(yīng)速度和成本控制上形成更直接的優(yōu)勢。這種差異正在影響客戶的選擇邏輯。以O(shè)penAI和Meta為代表的大模型公司,正在從過去對單一算力供應(yīng)商的依賴,轉(zhuǎn)向多供應(yīng)商組合策略,以在推理成本不斷攀升的背景下實(shí)現(xiàn)效率最優(yōu)。
換言之,英偉達(dá)的問題并不在于性能不足,而在于其通用架構(gòu)在“推理優(yōu)先”時(shí)代不再具備絕對的效率優(yōu)勢。當(dāng)AI進(jìn)入大規(guī)模商業(yè)化應(yīng)用階段,行業(yè)競爭的焦點(diǎn)正在從“誰能提供更強(qiáng)算力”,轉(zhuǎn)向“誰能以更低成本、更高效率持續(xù)提供算力”也正是在這一背景下,英偉達(dá)的角色發(fā)生了變化,它不再只是GPU供應(yīng)商,而是試圖通過完整的產(chǎn)品與架構(gòu)體系,定義AI基礎(chǔ)設(shè)施的基本形態(tài),并在這一過程中,占據(jù)產(chǎn)業(yè)鏈更高的位置。
在這樣的背景下,Rubin的意義不只是一次產(chǎn)品升級。作為上一代Blackwell GPU架構(gòu)的繼任者,Rubin更像是一輪系統(tǒng)架構(gòu)的重構(gòu)。它最早在2024年臺北電腦展上亮相,并在2025年GTC上披露更完整的技術(shù)細(xì)節(jié),名稱則來自美國天文學(xué)家薇拉·魯賓,延續(xù)了英偉達(dá)以女性科學(xué)家命名架構(gòu)的傳統(tǒng)。
從產(chǎn)品節(jié)奏來看,Rubin推進(jìn)明顯加快。在2026年CES上,黃仁勛就透露,該架構(gòu)已進(jìn)入量產(chǎn)階段,首批產(chǎn)品預(yù)計(jì)在2026年下半年交付,微軟、亞馬遜、谷歌、甲骨文等云廠商將率先部署,OpenAI等AI公司也已加入這一體系。
性能層面,Rubin帶來的是一次明顯躍升。訓(xùn)練效率提升約3.5倍,推理性能提升約5倍,同時(shí)由于架構(gòu)更為集成,單位算力成本顯著下降,在部分場景中,推理Token成本有望降至上一代的十分之一。
架構(gòu)層面,Rubin由GPU、定制CPU(Vera)以及網(wǎng)絡(luò)交換組件協(xié)同構(gòu)成,并配備HBM4高帶寬內(nèi)存,顯著提升數(shù)據(jù)吞吐能力。計(jì)算、存儲與網(wǎng)絡(luò)被整合在同一體系中,使其更接近一個(gè)完整的系統(tǒng),而非傳統(tǒng)意義上的芯片產(chǎn)品。
但更高性能也帶來了新的工程挑戰(zhàn)。隨著算力密度提升,功耗迅速上升,單卡可達(dá)2000瓦以上,對散熱系統(tǒng)提出更高要求。液冷逐漸從可選方案變?yōu)闃?biāo)配,數(shù)據(jù)中心的設(shè)計(jì)邏輯也隨之改變。
在更大規(guī)模的應(yīng)用中,Rubin將被納入英偉達(dá)的超算體系,例如DGX SuperPod,同時(shí)也可以拆分為模塊化產(chǎn)品供客戶靈活組合。針對超長上下文等復(fù)雜任務(wù),英偉達(dá)還設(shè)計(jì)了專用版本GPU,并通過大規(guī)模集群協(xié)同運(yùn)行,提供接近“數(shù)據(jù)中心級”的單機(jī)算力。
資深企業(yè)戰(zhàn)略和技術(shù)創(chuàng)新管理專家、科方得咨詢機(jī)構(gòu)負(fù)責(zé)人張新原在接受《商學(xué)院》記者采訪時(shí)指出,英偉達(dá)所推動(dòng)的“AI工廠”與大規(guī)模GPU集群模式,正在成為未來AI基礎(chǔ)設(shè)施的重要形態(tài)之一。這種以集中化、規(guī)模化為特征的算力供給方式,能夠高效支撐大模型訓(xùn)練與推理需求,但其可持續(xù)性取決于算力需求是否持續(xù)增長、電力與土地等資源供給是否匹配,以及軟硬件生態(tài)是否具備足夠的開放性與兼容性。
在這一邏輯下,英偉達(dá)的動(dòng)作也開始向更上游和更廣范圍延伸。
02
向光通信與網(wǎng)絡(luò)層延伸
在生成式人工智能加速發(fā)展的背景下,競爭正在從模型與算法,轉(zhuǎn)向算力供給與基礎(chǔ)設(shè)施能力。
2026年3月初,英偉達(dá)宣布與Lumentum Holdings和Coherent建立合作并進(jìn)行投資,將布局從計(jì)算芯片延伸至光通信與網(wǎng)絡(luò)層。這一動(dòng)作指向一個(gè)正在顯現(xiàn)的瓶頸,即帶寬與延遲。隨著模型規(guī)模擴(kuò)大,數(shù)據(jù)在GPU、機(jī)架乃至數(shù)據(jù)中心之間的流動(dòng),逐漸成為影響性能的關(guān)鍵因素,僅依靠算力提升已經(jīng)不再足夠。
這一變化背后,是產(chǎn)業(yè)邏輯的轉(zhuǎn)向。在生成式人工智能加速發(fā)展的背景下,競爭正在從模型與算法,轉(zhuǎn)向算力供給與基礎(chǔ)設(shè)施能力。
英偉達(dá)推出的硅光交換機(jī)通過創(chuàng)新性集成光器件,將激光器數(shù)量減少約4倍,能源效率提升至約3.5倍,信號完整性提升約63倍,大規(guī)模組網(wǎng)可靠性提升約10倍,部署效率提升約1.3倍,可以推動(dòng)大規(guī)模AI基礎(chǔ)設(shè)施向更高效、更穩(wěn)定的方向演進(jìn)。
張新原認(rèn)為,節(jié)點(diǎn)之間的數(shù)據(jù)交換需求顯著增加,使網(wǎng)絡(luò)帶寬與延遲逐漸成為制約整體效率的關(guān)鍵因素,這一趨勢源于模型參數(shù)規(guī)模進(jìn)入萬億級、訓(xùn)練數(shù)據(jù)持續(xù)擴(kuò)大,以及分布式訓(xùn)練對高頻同步通信的更高要求。在此背景下,硅光技術(shù)被寄予更高期待,但仍處于從實(shí)驗(yàn)室走向規(guī)模化應(yīng)用的過渡階段,在制造良率、成本控制及與現(xiàn)有電互聯(lián)體系的兼容性方面仍面臨挑戰(zhàn),未來3—5年有望在部分高性能場景率先落地,但全面替代仍需更長周期。
與此同時(shí),數(shù)據(jù)中心的架構(gòu)正在發(fā)生轉(zhuǎn)變,“以網(wǎng)絡(luò)為核心”的設(shè)計(jì)逐漸推動(dòng)系統(tǒng)從計(jì)算與存儲分離,走向計(jì)算、網(wǎng)絡(luò)與存儲深度融合。網(wǎng)絡(luò)不再只是連接通道,而是逐步成為資源調(diào)度與任務(wù)編排的核心中樞。與之對應(yīng),光互連的價(jià)值被重新評估,其在長距離與高帶寬傳輸中的能效優(yōu)勢,使其在高性能計(jì)算與AI集群中的應(yīng)用空間持續(xù)擴(kuò)大。產(chǎn)業(yè)鏈也在這一過程中發(fā)生重構(gòu),光電協(xié)同趨勢逐漸形成,整體呈現(xiàn)出垂直整合與專業(yè)分工并存的格局。
在這一演進(jìn)下,GPU廠商進(jìn)入網(wǎng)絡(luò)與光通信領(lǐng)域也具有必然性。張新原指出,隨著AI集群規(guī)模擴(kuò)大,網(wǎng)絡(luò)性能已成為系統(tǒng)效率的關(guān)鍵變量,通過掌握全棧能力,GPU廠商能夠在系統(tǒng)層面實(shí)現(xiàn)進(jìn)一步優(yōu)化,這也推動(dòng)產(chǎn)業(yè)競爭從單一硬件,轉(zhuǎn)向全棧解決方案的競爭格局。但與此同時(shí),跨區(qū)域部署帶來的延遲與一致性問題依然存在,受物理約束影響,短期內(nèi)只能通過異步訓(xùn)練、梯度壓縮及網(wǎng)絡(luò)優(yōu)化等方式緩解。
當(dāng)AI競爭從模型走向基礎(chǔ)設(shè)施,硬件的角色也隨之改變,不再只是算力載體,而是影響系統(tǒng)效率與成本結(jié)構(gòu)的核心變量。英偉達(dá)正在做的,是將分散算力整合為可調(diào)度、可規(guī)模化運(yùn)行的工業(yè)級能力,而Rubin正是這一進(jìn)程中的關(guān)鍵一環(huán)。
03
重構(gòu)AI系統(tǒng)的“五層架構(gòu)”
AI基礎(chǔ)設(shè)施呈現(xiàn)出更清晰的分層結(jié)構(gòu):底層是芯片與互連,中間是系統(tǒng)與網(wǎng)絡(luò),上層是模型與應(yīng)用。
如果算力只是其中一環(huán),那么整套AI系統(tǒng)如何被組織?英偉達(dá)給出的答案,是“五層架構(gòu)”。
在這條不斷延展的路徑中,它試圖回答的不只是算力強(qiáng)弱,而是算力如何被更高效地使用。
隨著模型規(guī)模增長,單純堆疊GPU難以帶來線性提升,反而受到數(shù)據(jù)調(diào)度、通信延遲與系統(tǒng)瓶頸的限制。算力競爭因此從“單點(diǎn)性能”轉(zhuǎn)向“系統(tǒng)協(xié)同能力”。任務(wù)拆分、數(shù)據(jù)流動(dòng)與資源調(diào)度,成為新的關(guān)鍵變量。
這也讓AI基礎(chǔ)設(shè)施呈現(xiàn)出更清晰的分層結(jié)構(gòu):底層是芯片與互連,中間是系統(tǒng)與網(wǎng)絡(luò),上層是模型與應(yīng)用。英偉達(dá)正試圖向每一層延伸,并通過統(tǒng)一架構(gòu)將其整合為一個(gè)整體。
這一結(jié)構(gòu)被黃仁勛概括為“五層蛋糕”。在他看來,AI產(chǎn)業(yè)的競爭不再是單一技術(shù)棧之爭,而是系統(tǒng)工程的比拼。未來門檻將從“是否擁有算力”轉(zhuǎn)向“是否具備系統(tǒng)級能力”。單點(diǎn)優(yōu)勢會被削弱,而系統(tǒng)差距將被放大。
從這個(gè)角度看,英偉達(dá)所構(gòu)建的并不僅是產(chǎn)品組合,而是一種基礎(chǔ)設(shè)施范式。當(dāng)算力被重新組織并規(guī)模化調(diào)度后,AI逐漸從模型問題,演變?yōu)楣こ虇栴}。
在此基礎(chǔ)上,這一“五層蛋糕”也被進(jìn)一步拆解為更具體的工業(yè)結(jié)構(gòu)。
黃仁勛提出,從工業(yè)視角審視AI,可以理解為一個(gè)“五層棧”:第一層,也是最底層,是能源。智能是在實(shí)時(shí)生成中被持續(xù)塑造的過程,而這一過程依賴穩(wěn)定的電力。每一個(gè)Token的生成,都涉及電子流動(dòng)、熱量管理以及能量向計(jì)算的轉(zhuǎn)化。這一過程沒有抽象空間,也不存在捷徑。因此,能源成為AI的第一性原理,決定智能的上限。
第二層是芯片。芯片是將能源轉(zhuǎn)化為計(jì)算的工廠。隨著AI對并行計(jì)算、高帶寬內(nèi)存與高速互聯(lián)的需求提升,芯片架構(gòu)的演進(jìn)直接影響系統(tǒng)效率與智能邊界。
第三層是基礎(chǔ)設(shè)施。包括土地、電力、冷卻與網(wǎng)絡(luò)系統(tǒng)以及復(fù)雜的工程體系,它將成千上萬顆處理器組織為一臺協(xié)同運(yùn)轉(zhuǎn)的機(jī)器。黃仁勛稱之為“AI工廠”,其目標(biāo)不再是存儲信息,而是持續(xù)生產(chǎn)智能。
第四層是模型。AI正在逐步理解更多“世界語言”:人類語言、生物語言、化學(xué)語言、物理語言乃至金融邏輯。語言模型只是其中一類,更具變革性的進(jìn)展正在蛋白質(zhì)預(yù)測、化學(xué)模擬、物理建模以及機(jī)器人和自主系統(tǒng)中發(fā)生。
第五層是應(yīng)用。真正的價(jià)值在這一層釋放:藥物研發(fā)、工業(yè)機(jī)器人、法律助手、自動(dòng)駕駛與人形機(jī)器人等。每一個(gè)成功應(yīng)用,都會反向推動(dòng)模型、基礎(chǔ)設(shè)施、芯片乃至能源體系形成持續(xù)強(qiáng)化的正向循環(huán)。
知名財(cái)經(jīng)作家、眺遠(yuǎn)影響力研究院院長高承遠(yuǎn)則指出,算力、網(wǎng)絡(luò)與能源共同構(gòu)成底層約束,真正的競爭焦點(diǎn)在于誰能夠更高效地整合這些要素,并構(gòu)建可持續(xù)擴(kuò)展的系統(tǒng)架構(gòu)。在這一過程中,全棧能力與系統(tǒng)工程能力的重要性持續(xù)上升,產(chǎn)業(yè)格局也將圍繞“系統(tǒng)定義權(quán)”展開重塑。
從長期來看,英偉達(dá)在全棧布局中的優(yōu)勢,更多體現(xiàn)在軟硬件協(xié)同能力與開發(fā)者生態(tài)之上。其CUDA平臺與AI軟件體系,與GPU及網(wǎng)絡(luò)硬件深度綁定,形成從芯片到系統(tǒng)再到應(yīng)用的完整技術(shù)閉環(huán),不僅帶來性能優(yōu)勢,也構(gòu)建了較高的生態(tài)壁壘。如今,AI基礎(chǔ)設(shè)施正在走向異構(gòu)化、分布式與綠色化,算力供給更加多元,網(wǎng)絡(luò)架構(gòu)更加注重低延遲與高帶寬,而能源效率與系統(tǒng)協(xié)同能力,將成為未來競爭的關(guān)鍵變量。
當(dāng)AI競爭從模型能力轉(zhuǎn)向基礎(chǔ)設(shè)施,算力不再是終點(diǎn),而是體系的一部分。英偉達(dá)正試圖通過芯片、網(wǎng)絡(luò)與系統(tǒng),定義這一體系的標(biāo)準(zhǔn),將分散算力重構(gòu)為可持續(xù)運(yùn)行的“智能工廠”。
但在推理成為主導(dǎo)、成本與效率成為核心變量的階段,通用架構(gòu)的邊界正在顯現(xiàn)。算力優(yōu)勢,不再自動(dòng)等同于效率優(yōu)勢。這場競爭的關(guān)鍵,已不在于“誰更強(qiáng)”,而在于“誰更高效地定義基礎(chǔ)設(shè)施”。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.