Sora 死后,生成式視頻路線已到頭。
編譯 | 王啟隆
出品丨AI 科技大本營(yíng)(ID:rgznai100)
2026 年 3 月,在新德里的 AI Alliance Global Leadership Reception 上,Christopher Nguyen 邀請(qǐng)到楊立昆聊了一個(gè)對(duì)未來(lái)影響深遠(yuǎn)的話題:今天的 AI 缺了一塊很大的東西,而他想討論的,不只是這塊拼圖究竟是什么,更是 LeCun 正在推進(jìn)的JEPA,是否就是那塊缺失的答案。
![]()
一如既往,LeCun 再次表達(dá)了他對(duì) LLM 路線的懷疑,但他這次把另一條技術(shù)敘事講得足夠完整:如果真實(shí)世界的大部分細(xì)節(jié)本來(lái)就不可預(yù)測(cè),那么 AI 要學(xué)的,可能就不是如何重建一切,而是如何找到那些真正可預(yù)測(cè)、也真正有用的抽象表示。
接下來(lái)的對(duì)話里,他系統(tǒng)解釋了為什么文本可以靠離散 token 預(yù)測(cè)一路推高能力,視頻和真實(shí)世界卻不行;為什么重建式路線會(huì)在現(xiàn)實(shí)信號(hào)上遇到根本限制;以及為什么他相信,真正通向下一代 AI 的,不是把現(xiàn)有生成式方法再往上堆一層,而是去學(xué)習(xí)抽象表示,并在表示空間里做預(yù)測(cè)。
要點(diǎn)速覽
LeCun 認(rèn)為,LLM 的上限不只是能力問(wèn)題,而是“下一 token 預(yù)測(cè)”這條路線本身不適合真實(shí)世界。
AI 真正缺的,不是更大的語(yǔ)言模型,而是能學(xué)習(xí)抽象表示、預(yù)測(cè)后果并支持規(guī)劃的世界模型。
JEPA 的關(guān)鍵,不是重建全部細(xì)節(jié),而是在表示空間里抓住那些真正可預(yù)測(cè)的結(jié)構(gòu)。
在圖像和視頻表示學(xué)習(xí)上,聯(lián)合嵌入方法長(zhǎng)期優(yōu)于重建式方法,這在他看來(lái)已經(jīng)是明確的經(jīng)驗(yàn)結(jié)論。
這也是他離開(kāi) Meta、轉(zhuǎn)向 AMI Labs 的原因之一:LLM 已經(jīng)吸走了太多資源,而 JEPA 更重要的應(yīng)用在真實(shí)世界。
接下來(lái)是這場(chǎng)對(duì)話的精編翻譯。
![]()
AI 今天真正缺的,不是更多 token,而是世界模型
主持人:在開(kāi)始之前,我先把這場(chǎng)對(duì)話的議程說(shuō)清楚。第一件事比較容易說(shuō)服大家:今天的 AI,確實(shí)缺了一塊非常大的東西。第二件事更難:我希望這場(chǎng)談話至少能開(kāi)始讓大家相信,Yann 正在做的事情,可能就是那塊缺失拼圖的答案。
如果要用最容易理解的方式來(lái)解釋?zhuān)銜?huì)怎么向大家說(shuō)明這兩件事:AI 到底缺了什么?為什么你認(rèn)為 JEPA 是答案?
Yann LeCun:這個(gè)問(wèn)題其實(shí)分成兩個(gè)部分。第一,缺的到底是什么?答案是:世界模型。第二,什么是世界模型,我們又該怎么把它建出來(lái)?
過(guò)去大概 15 年,AI 經(jīng)歷了兩次革命。一次是深度學(xué)習(xí),另一次當(dāng)然就是 LLM,本質(zhì)上是 GPT 這類(lèi)架構(gòu)推起來(lái)的。GPT 真正重要的,不是 transformer 本身,而是它背后的訓(xùn)練思想:給系統(tǒng)一個(gè)輸入序列,再訓(xùn)練它把這個(gè)輸入序列復(fù)現(xiàn)到輸出上。由于這個(gè)架構(gòu)是嚴(yán)格因果的,它只能看到當(dāng)前位置左邊的符號(hào),所以它本質(zhì)上是在做“下一 token 預(yù)測(cè)”,也就是下一個(gè)符號(hào)預(yù)測(cè)。
這是一種自監(jiān)督學(xué)習(xí)。你并不是在為某個(gè)具體任務(wù)訓(xùn)練它,而是在讓它學(xué)習(xí)序列中不同符號(hào)之間的依賴關(guān)系。最開(kāi)始其實(shí)也有一些架構(gòu)嘗試在任意方向上做預(yù)測(cè),但最后真正能擴(kuò)展起來(lái)的,是只做時(shí)間上向未來(lái)的預(yù)測(cè),也就是 GPT 這條路。
這條路為什么對(duì)文本有效?因?yàn)槲谋臼请x散的,token 的種類(lèi)也是有限的。你永遠(yuǎn)不能確定某串詞后面一定跟哪個(gè)詞,但因?yàn)榭赡艿?token 數(shù)量有限,你可以對(duì)每一種可能性打分,得到一個(gè)在十萬(wàn)級(jí)詞表上的概率分布。
問(wèn)題是,這一套方法一旦離開(kāi)文本,就會(huì)遇到根本困難。我至少花了 15 年在研究,怎么把自監(jiān)督學(xué)習(xí)這套想法用到視頻上。也就是說(shuō),訓(xùn)練一個(gè)系統(tǒng)去預(yù)測(cè)視頻接下來(lái)會(huì)發(fā)生什么。但最后你會(huì)發(fā)現(xiàn),這件事根本做不通。
比如我拍一段這個(gè)房間的視頻,鏡頭慢慢轉(zhuǎn)過(guò)去,然后在某一刻停住。我讓系統(tǒng)預(yù)測(cè)接下來(lái)的視頻。它當(dāng)然可以猜到一些大概的東西,比如這是一個(gè)房間,房間里坐著人,前面有桌子。但它絕不可能預(yù)測(cè)出你們每個(gè)人具體長(zhǎng)什么樣,哪些座位有人,地毯的紋理是什么,吊燈的反光是什么樣。現(xiàn)實(shí)世界里,我們觀察到的大部分細(xì)節(jié),本來(lái)就是不可預(yù)測(cè)的。
如果你硬逼系統(tǒng)去預(yù)測(cè)這些細(xì)節(jié),唯一的辦法就是再塞給它額外信息,讓它有能力把這些細(xì)節(jié)復(fù)原出來(lái)。這個(gè)額外信息就是潛變量。但問(wèn)題在于,這個(gè)潛變量最后往往承載了絕大部分預(yù)測(cè)所需的信息,于是整件事就失效了。
真實(shí)世界本來(lái)就是這樣。我們當(dāng)然可以預(yù)測(cè),如果把門(mén)窗都關(guān)上,再把這個(gè)房間里的空氣加熱,溫度和壓強(qiáng)會(huì)怎樣變化,因?yàn)橛?PV=nRT。但你不可能去預(yù)測(cè)每一個(gè)空氣分子的運(yùn)動(dòng)軌跡。分子太多了,不可能逐一模擬。
所以,試圖預(yù)測(cè)數(shù)據(jù)中的所有細(xì)節(jié)——不管是視頻、分子動(dòng)力學(xué),還是別的連續(xù)世界信號(hào)——這個(gè)想法本身就是錯(cuò)的。
真正可行的做法,是換一種架構(gòu):不要試圖重建輸入里的每一個(gè)細(xì)節(jié),而是去學(xué)習(xí)一種抽象表示,并在這個(gè)抽象表示空間里做預(yù)測(cè)。這就是 JEPA,也就是聯(lián)合嵌入預(yù)測(cè)架構(gòu)。
JEPA 的意思是,你訓(xùn)練系統(tǒng)去找到一種盡可能保留輸入信息、但同時(shí)又具有可預(yù)測(cè)性的表示。比如在這個(gè)房間里,溫度和壓強(qiáng)是可以互相預(yù)測(cè)的;空氣分子的具體位置和速度則不行。物理學(xué)家早就把這件事做成了體系:為了做預(yù)測(cè),他們必須忽略大量細(xì)節(jié),而這些被忽略掉的東西,叫作熵。
你去模擬機(jī)翼周?chē)目諝饬鲃?dòng),也不是去追蹤每一個(gè)空氣分子,而是把空氣抽象成速度、密度、溫度,然后解 Navier–Stokes 方程。我們做建模一直都是這樣。量子場(chǎng)太復(fù)雜,于是我們發(fā)明了粒子;粒子太多,于是我們發(fā)明了原子;再往上有分子、蛋白質(zhì)、細(xì)胞、生物體、生態(tài)系統(tǒng)、社會(huì)。每一個(gè)層級(jí),都是為了在忽略下層細(xì)節(jié)的情況下,保留足夠的結(jié)構(gòu)來(lái)做預(yù)測(cè)。
從這個(gè)意義上說(shuō),JEPA 其實(shí)是一個(gè)非常簡(jiǎn)單的想法:不要去重建信號(hào)中的一切,而要去尋找一種可以支持預(yù)測(cè)的抽象表示。
如果我把人類(lèi)已經(jīng)收集到的所有木星數(shù)據(jù)都丟給你,這些數(shù)據(jù)本身并不會(huì)自動(dòng)帶來(lái)預(yù)測(cè)能力。比如我問(wèn)你,木星十年后會(huì)在哪,你真正需要的可能只有六個(gè)數(shù)字:三個(gè)位置,三個(gè)速度。其他大量細(xì)節(jié)可能都不重要。它們不是沒(méi)價(jià)值,只是對(duì)這個(gè)問(wèn)題沒(méi)幫助。
如果你用這種方式訓(xùn)練出系統(tǒng),而且這種系統(tǒng)不再是生成式的,也不再是傳統(tǒng)意義上概率式的——雖然它仍然可以處理不確定性——那你就有可能真正構(gòu)建面向現(xiàn)實(shí)世界的 AI。
再進(jìn)一步,如果這個(gè)系統(tǒng)學(xué)到的不是單純時(shí)間預(yù)測(cè),而是帶動(dòng)作條件的預(yù)測(cè):在時(shí)間 t 的世界狀態(tài)下,假設(shè)采取某個(gè)行動(dòng),那么 t+1 的世界狀態(tài)會(huì)是什么。那它就成了真正的世界模型。你可以用它來(lái)規(guī)劃,規(guī)劃一串最優(yōu)動(dòng)作,以達(dá)成某個(gè)目標(biāo)函數(shù)下的結(jié)果。
大家都在講智能體系統(tǒng),但其實(shí)沒(méi)有人真正知道怎么把它們建得可靠。至少在我看來(lái),單靠 LLM 很難做到,因?yàn)?LLM 并沒(méi)有能力預(yù)測(cè)自己行動(dòng)的后果。要做到這一點(diǎn),你需要的是世界模型。
![]()
為什么 LeCun 認(rèn)為生成式路線有根本上限
主持人:這套想法在直覺(jué)上很容易讓人認(rèn)同。我們感知世界的時(shí)候,也不是在腦子里重建聲音、像素和全部細(xì)節(jié),而是形成某種表示。那問(wèn)題就來(lái)了:為什么不能繼續(xù)擴(kuò)大另一條路線?為什么不能靠更多算力、更多數(shù)據(jù),把生成式方法繼續(xù)推上去?這到底是規(guī)模問(wèn)題,還是更本質(zhì)的方法問(wèn)題?
Yann LeCun:我認(rèn)為這是生成式方法本身的根本限制。只要你試圖重建信號(hào)里的全部細(xì)節(jié),這條路就是有問(wèn)題的。
第二個(gè)限制是,為了讓這些生成式模型工作,你通常還得先把信號(hào)離散化,也就是 token 化,把它變成離散符號(hào)序列。你當(dāng)然可以嘗試把視頻也這樣處理,但效果并不好。
在計(jì)算機(jī)視覺(jué)里,我們其實(shí)已經(jīng)積累了很多年經(jīng)驗(yàn)。要用自監(jiān)督的方式學(xué)圖像表示,大體上有兩種路線。第一種是重建:拿一張圖像,做一些破壞,比如遮住一部分、模糊它、改顏色,再訓(xùn)練一個(gè)大網(wǎng)絡(luò)去從這個(gè)被破壞的版本里重建原圖。這在自然語(yǔ)言處理中對(duì)應(yīng)的是 BERT,在視覺(jué)里則有遮罩圖像建模、遮罩自編碼器這些方法。
它們不是完全沒(méi)用,也能學(xué)到一些表示,再拿去做下游監(jiān)督任務(wù)。但還有第二種路線,就是聯(lián)合嵌入。你把原圖和被破壞或變換后的圖都送進(jìn)編碼器里,訓(xùn)練它們?cè)诒硎究臻g中互相可預(yù)測(cè)。換句話說(shuō),你不要求它把像素重建回來(lái),而要求它學(xué)會(huì)一種更高層的表示。
這么多年的實(shí)驗(yàn)結(jié)論其實(shí)很明確:聯(lián)合嵌入幾乎每次都比重建更強(qiáng)。不管是 VAE、VQ-VAE、稀疏自編碼器,還是別的重建方法,都沒(méi)有真正比過(guò)這些不試圖重建的方式。
對(duì)我來(lái)說(shuō),這是一個(gè)非常強(qiáng)的經(jīng)驗(yàn)信號(hào):對(duì)于自然信號(hào)來(lái)說(shuō),重建本身就是個(gè)壞主意。
我其實(shí)已經(jīng)和這個(gè)想法生活了 40 年。1987 年我的博士論文里,就在做自編碼器,甚至是去噪自編碼器。1986 年我就在訓(xùn)練這類(lèi)東西。它們當(dāng)然“有點(diǎn)效果”,但遠(yuǎn)遠(yuǎn)談不上真正可行。后來(lái) Geoff Hinton 也一樣,對(duì)這類(lèi)方法的表現(xiàn)并不滿意。
最后我們看到的結(jié)論是:對(duì)于自然信號(hào),學(xué)習(xí)表示的最好辦法,不是重建,而是不重建。最近幾年,這種聯(lián)合嵌入方法再用到視頻上,也出現(xiàn)了非常好的結(jié)果。
![]()
從 collapse 到 DINO:這條路為什么現(xiàn)在才開(kāi)始真正成熟
主持人:但懷疑者會(huì)問(wèn)一個(gè)問(wèn)題:在表示空間里學(xué)習(xí)當(dāng)然聽(tīng)起來(lái)很好,可它很容易塌縮,落到 trivial solution(平凡解,線性系統(tǒng)的解為零向量的情況)。那最近這幾年到底發(fā)生了什么,讓你覺(jué)得這條路真的可以往前走了?
Yann LeCun:這個(gè)問(wèn)題其實(shí)很早就出現(xiàn)了。1993 年我在 Bell Labs 的時(shí)候,就有人找我們做簽名驗(yàn)證。他們的需求很具體:信用卡磁條上只有 80 字節(jié)空間,能不能把簽名的“gist”編碼進(jìn)這 80 字節(jié)里,然后比較兩次簽名是否屬于同一個(gè)人。
當(dāng)時(shí)我的想法是用后來(lái)被叫作孿生神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):給它兩個(gè)同一個(gè)人的簽名,分別過(guò)同一個(gè)網(wǎng)絡(luò),再要求它們輸出相同的表示。問(wèn)題是,如果你只這么做,系統(tǒng)最簡(jiǎn)單的解法就是忽略輸入,永遠(yuǎn)輸出一個(gè)常數(shù)表示,這就是塌縮。
后來(lái)我們想到的辦法,就是今天所謂對(duì)比式方法:除了給它同一個(gè)人的兩個(gè)簽名,也給它不同人的簽名,或者真實(shí)簽名和偽造簽名,然后要求這些表示彼此拉開(kāi)。這在簽名任務(wù)上有效,后來(lái)在 ImageNet 這種對(duì)象識(shí)別任務(wù)上也有效,但它不太容易擴(kuò)展,學(xué)到的表示維度通常比較低。
所以很長(zhǎng)一段時(shí)間里,我并不覺(jué)得這會(huì)是自監(jiān)督學(xué)習(xí)的最終答案。直到大概五年前,我的一個(gè)博士后 Stéphane Deny,以及其他一些相關(guān)工作,開(kāi)始用另外一種方法來(lái)避免塌縮。它們不是對(duì)比式方法,而是通過(guò)最大化某種信息量,迫使編碼器輸出的信息保持“有信息”,從而防止系統(tǒng)直接忽略輸入。
這一條路后來(lái)發(fā)展成了 Barlow Twins,之后又有 VICReg,再往后還有基于蒸餾的方法。與此同時(shí),Meta 那邊也有 DINO、DINOv2、DINOv3。這些結(jié)果讓事情變得很清楚:我們確實(shí)已經(jīng)有辦法避免塌縮,而且這些辦法在圖像表示學(xué)習(xí)上非常有效。
所以我后來(lái)才真正覺(jué)得,這就是未來(lái)應(yīng)該走的方向。當(dāng)然,這里面的理論解釋還沒(méi)有完全建立起來(lái)。為什么這些防塌縮方法能這么有效,我們其實(shí)還沒(méi)有徹底理解。
![]()
LLM 已經(jīng)把房間里的空氣吸光了
主持人:過(guò)去 FAIR 一直是很好的研究環(huán)境。扎克伯格也很希望你留下來(lái)。那為什么你最后還是決定離開(kāi) Meta,去做 AMI Labs?在外面到底能做什么,是在 Meta 里面做不了的?
Yann LeCun:至少到去年之前,F(xiàn)AIR 還是一個(gè)非常適合做研究的地方。但過(guò)去這一年,Meta 的重心已經(jīng)明顯轉(zhuǎn)向更短期的目標(biāo)了,本質(zhì)上就是追趕整個(gè) LLM 產(chǎn)業(yè)。這就導(dǎo)致那些更長(zhǎng)期、更激進(jìn)、也更偏離當(dāng)前主流范式的項(xiàng)目,被放到了更次要的位置。
當(dāng)一家整個(gè)公司都在往某個(gè)范式上投入數(shù)千億美元,而你這個(gè) Chief AI Scientist 又到處說(shuō),單靠放大 LLM 永遠(yuǎn)不可能走到人類(lèi)級(jí) AI,你自然不會(huì)特別受歡迎。
當(dāng)然,Mark Zuckerberg 和 Andrew Bosworth 其實(shí)都對(duì)我在做的項(xiàng)目非常支持。我們當(dāng)時(shí)在 Meta 內(nèi)部把這個(gè)項(xiàng)目叫作 AMI,Advanced Machine Intelligence,后來(lái)這也成了新公司的名字。但我后來(lái)還是去跟 Mark 講,這個(gè)方向在公司內(nèi)部從政治上已經(jīng)很難繼續(xù)推了。因?yàn)?strong>LLM 基本上已經(jīng)把房間里的空氣都吸光了。
這是第一點(diǎn)。第二點(diǎn)是,這些 JEPA 想法真正重要的應(yīng)用,很多都在 Meta 根本不會(huì)碰的地方:工業(yè)流程控制、機(jī)器人、現(xiàn)實(shí)世界系統(tǒng),還有很多其他應(yīng)用。Meta 的核心業(yè)務(wù)還是連接人與人,而不是這些現(xiàn)實(shí)世界問(wèn)題。
所以,一方面是公司內(nèi)部模式發(fā)生了變化,另一方面是外部應(yīng)用空間太大,再加上融資條件也成熟了,JEPA 的結(jié)果又開(kāi)始真正跑出來(lái)了,這時(shí)候離開(kāi)就變成了一件順理成章的事。
![]()
從衛(wèi)星到經(jīng)濟(jì)系統(tǒng),世界模型真正要去的地方在哪里?
主持人:我們其實(shí)一直在用 Barlow Twins 和 JEPA 訓(xùn)練衛(wèi)星模型,效果非常好,也很簡(jiǎn)單。所以我完全相信你說(shuō)的抽象表示這條路。但現(xiàn)在的問(wèn)題是,我們訓(xùn)練出了一個(gè)很漂亮的模型,它對(duì)太空這個(gè)尺度有效,可它和其他尺度上的 JEPA 模型之間并沒(méi)有真正連接起來(lái)。你覺(jué)得未來(lái)這些模型會(huì)不會(huì)形成某種分層 JEPA,最后在不同尺度之間連起來(lái)?
Yann LeCun:我覺(jué)得最終你確實(shí)需要某種分層 JEPA。低層表示負(fù)責(zé)更短時(shí)、更細(xì)節(jié)的預(yù)測(cè),但這些預(yù)測(cè)通常會(huì)很快偏離現(xiàn)實(shí)。所以你還需要更高層的表示,去做更長(zhǎng)時(shí)間、更大尺度的預(yù)測(cè)。
高層級(jí)的一個(gè)特點(diǎn),就是它能在更大的時(shí)間尺度和空間尺度上做預(yù)測(cè)。這其實(shí)也和物理里的很多思想相通,比如重整化群理論,也和卷積網(wǎng)絡(luò)里的池化有某種相似性。
而且不同物理現(xiàn)象之間,本來(lái)就共享很多共性。我覺(jué)得這給了我們一種可能:建出某種更通用的模型,讓一個(gè)領(lǐng)域里形成的“直覺(jué)”,能遷移到另一個(gè)領(lǐng)域里去。比如你如果真的理解流體動(dòng)力學(xué),哪怕只是高層的直覺(jué),你既可以用它理解渦噴發(fā)動(dòng)機(jī),也可以用它理解機(jī)翼,也可以用它理解帆的受力。
我們?nèi)祟?lèi)其實(shí)一直就是這么工作的。甚至貓也是。你的貓對(duì)于自己的身體動(dòng)力學(xué)、摩擦、跳躍這些事,理解得可能比任何你能寫(xiě)出來(lái)的方程都好。它知道什么時(shí)候能跳上去,怎么連續(xù)借力,怎么控制身體,這是一種非常高層但非常有效的世界模型。
主持人:我們會(huì)前還聊到另一個(gè)問(wèn)題,就是經(jīng)濟(jì)模型。如果從政策、預(yù)測(cè)、經(jīng)濟(jì)這些角度看,經(jīng)濟(jì)系統(tǒng)里有公司、個(gè)人、政府、組織這些“微觀主體”,又有國(guó)家、區(qū)域、產(chǎn)業(yè)這樣的“宏觀結(jié)構(gòu)”。你怎么理解這種從微觀到宏觀的問(wèn)題?
Yann LeCun:不管是在物理、經(jīng)濟(jì)學(xué)、社會(huì)科學(xué)還是工程里,最難的問(wèn)題之一,都是怎么從微觀過(guò)渡到中觀,再到宏觀。
在物理里,這件事其實(shí)最近幾年才真正開(kāi)始有一些理論上的突破。比如怎么從分子碰撞推到 Boltzmann 方程,再怎么從 Boltzmann 方程走到 Navier–Stokes 方程。再往上,你又會(huì)遇到更高層的問(wèn)題,比如給定一個(gè)特定翼型和特定速度,怎么直接預(yù)測(cè)升力和阻力。
其實(shí)現(xiàn)在已經(jīng)有人在做這類(lèi)事情:先用 Navier–Stokes 方程或者計(jì)算流體動(dòng)力學(xué)生成訓(xùn)練數(shù)據(jù),再訓(xùn)練神經(jīng)網(wǎng)絡(luò)去直接預(yù)測(cè)升力和阻力。這樣得到的是一個(gè)可微分模型,你甚至可以直接對(duì)形狀反傳梯度,去優(yōu)化形狀本身。類(lèi)似例子在材料科學(xué)、宇宙學(xué)模擬等很多地方都已經(jīng)出現(xiàn)了。
經(jīng)濟(jì)學(xué)會(huì)更難,因?yàn)槟忝鎸?duì)的不是遵守牛頓定律的分子,而是大量在有限信息下做半理性決策的人和組織。這樣形成的涌現(xiàn)行為,本來(lái)就極難建模。
所以在我看來(lái),這類(lèi)問(wèn)題最后很可能還是要靠一種數(shù)據(jù)驅(qū)動(dòng)的方法,也就是類(lèi)似 JEPA 的路徑,去找到好的抽象。宏觀經(jīng)濟(jì)學(xué)其實(shí)也一直在做這件事,只不過(guò)是用更高層的抽象,把微觀細(xì)節(jié)進(jìn)一步壓掉。
我覺(jué)得這種方法在經(jīng)濟(jì)學(xué)里會(huì)有很多應(yīng)用,在金融里可能也有應(yīng)用。但金融的問(wèn)題是,大部分?jǐn)?shù)據(jù)本質(zhì)上都是噪音,信噪比非常低。
原視頻鏈接:youtu.be/wDeXfFQcJxk
(投稿或?qū)で髨?bào)道:zhanghy@csdn.net)
![]()
"48 小時(shí),與 50+ 位大廠技術(shù)決策者,共探 AI 落地真路徑"
由 CSDN&奇點(diǎn)智能研究院聯(lián)合舉辦的「全球機(jī)器學(xué)習(xí)技術(shù)大會(huì)」正式升級(jí)為「奇點(diǎn)智能技術(shù)大會(huì)」。
2026 奇點(diǎn)智能技術(shù)大會(huì)將于 4 月 17-18 日在上海環(huán)球港凱悅酒店正式召開(kāi),大會(huì)聚焦大模型技術(shù)演進(jìn)、智能體系統(tǒng)工程、OpenClaw 生態(tài)實(shí)踐及 AI 行業(yè)落地等十二大專(zhuān)題板塊,特邀來(lái)自BAT、京東、微軟、小紅書(shū)、美團(tuán)等頭部企業(yè)的 50+ 位技術(shù)決策者分享實(shí)戰(zhàn)案例。旨在幫助技術(shù)管理者與一線 AI 落地人員規(guī)避選型風(fēng)險(xiǎn)、降低試錯(cuò)成本、獲取可復(fù)用的工程方法論,真正實(shí)現(xiàn) AI 技術(shù)的規(guī)模化落地與商業(yè)價(jià)值轉(zhuǎn)化。
這不僅是一場(chǎng)技術(shù)的盛宴,更是決策者把握 2026 AI 拐點(diǎn)的戰(zhàn)略機(jī)會(huì)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.