![]()
遙遙領先不假,但不夠完美也是真的
文 | cookie
編輯 | 羊羊
目前全世界最好的AI視頻大模型是哪家?
不吹不黑,即便是在海外,很多人的答案也在近期迅速改成了Seedance 2.0。
兩周前,曾獲奧斯卡最佳動畫短片提名的愛爾蘭電影人盧埃里·羅賓森僅用了兩行提示詞,就讓Seedance 2.0生成了那段在互聯(lián)網(wǎng)上瘋狂傳播的“湯姆·克魯斯大戰(zhàn)布拉德·皮特”AI視頻,效果之逼真讓整個好萊塢神經(jīng)緊繃、如臨大敵。
《死侍與金剛狼》的編劇雷特·瑞斯看過這段視頻后,在社交媒體上發(fā)出悲觀的感嘆:
我不想這么說,但我們(電影人)恐怕真的要完蛋了。
![]()
Seedance 2.0生成的AI視頻讓好萊塢著名編劇大喊:我們要完蛋了
因為功能著實強大,Seedance 2.0最近在全球互聯(lián)網(wǎng)掀起了一股AI創(chuàng)作的熱潮,短期內(nèi)大量電影級的AI視頻橫空出世。
作為觀看者,每個人都在感嘆AI技術的迭代速度實在驚人;而作為Seedance 2.0的使用者,他們是如何評價這款產(chǎn)品的,更值得我們關注。
如果說當初Sora的出現(xiàn),讓世界看到了AI“無中生有”的魔力,那么Seedance 2.0則將討論的焦點,從“能生成什么”拉回到了“如何精確地生成我想要的”。
Seedance 2.0通過一個強大的多維參考系統(tǒng),將模糊的創(chuàng)意轉化為AI可執(zhí)行的精確指令。而且在角色一致性、原生音畫同步、自動鏡頭切換等方面取得了驚人的進步。
![]()
當然,除了分析Seedance 2.0優(yōu)點、特點,使用者們也不可避免地談到了它的短板,而這些需要改進的“短板”可能就是未來AI視頻大模型的發(fā)展方向。
AI的進化之路還遠遠看不到終點,甚至有沒有終點都要打個問號。
而每次有Seedance 2.0這樣驚人的產(chǎn)品問世,我們的緊迫感恐怕都要增加好幾分。學習,真的永無止境。
01 告別隨機生成,精準拿捏你的創(chuàng)作思路:
Seedance 2.0的核心競爭力,并非單一技術的點狀突破,而是一套以“導演意圖”為中心、協(xié)同工作的架構設計。創(chuàng)作者終于有機會從“祈禱AI能聽懂”的被動角色,轉變?yōu)槭治湛刂婆_的導演。
具體來說,Seedance 2.0的過人之處,首先體現(xiàn)在其統(tǒng)一的多模態(tài)音視頻聯(lián)合生成架構。
與傳統(tǒng)模型單一的“文本到視頻”路徑不同,Seedance 2.0能同時理解并融合文字、圖片、視頻、音頻四種模態(tài)的輸入。這意味著,你可以用文字描述故事,用圖片定義角色和風格,用視頻指定運鏡,用音頻驅動節(jié)奏和口型。
![]()
Seedance 2.0能同時理解并融合文字、圖片、視頻、音頻四種模態(tài)的輸入
這個架構的核心是“導演模式”,它通過一個強大的多維參考系統(tǒng),將模糊的創(chuàng)意轉化為AI可執(zhí)行的精確指令。
例如,Seedance 2.0允許用戶同時上傳多達9張圖片、3段視頻和3段音頻,構建一個豐富的“素材庫”。
更妙的是,它引入了一種類似編程中“@”符號的引用系統(tǒng),通過在提示詞中使用@Image1、@Video1等標簽,創(chuàng)作者可以精確地將指令與特定素材綁定。
例如,“讓@Image1中的角色跳@Video1中的舞蹈”,這種結構化的指令遠比冗長的自然語言描述更高效、更無歧義。
更進一步,創(chuàng)作者可以調(diào)整每個參考素材的“影響權重”。例如,你可以將角色圖片的權重調(diào)高以確保面部高度保真,同時將運動參考視頻的權重調(diào)低,允許AI在遵循大體動作的同時進行更平滑的創(chuàng)意發(fā)揮。
![]()
Seedance 2.0 在指令遵循、運動質量、畫面美感、音頻表現(xiàn)等各個維度都處于行業(yè)領先地位
穩(wěn)定、同步、智能——在Seedance 2.0強大的多模態(tài)音視頻聯(lián)合生成架構之下,幾項關鍵技術也得以突破,共同解決了AI視頻創(chuàng)作中的核心痛點。
鏡頭隨意切,角色模樣服飾都不變
以往模型在鏡頭切換后,角色“換臉”或服裝細節(jié)改變的問題屢見不鮮。Seedance 2.0通過允許用戶上傳角色的多角度參考圖(如正面、側面、四分之三臉),在模型內(nèi)部構建了一個更穩(wěn)定的3D幾何表征。
這使得角色在進行轉身、光影變化等動態(tài)過程時,其核心面部特征和服飾細節(jié)得以保持高度一致,為生成多鏡頭序列提供了堅實的技術保障。
音畫精準匹配,甚至能憑照片還原人聲
音畫不同步是AI視頻的另一大頑疾。Seedance 2.0利用其底層的Seed 2.0大模型,通過一種被稱為“雙分支擴散變換器”的架構,實現(xiàn)了原生視頻與音頻(包括對白、音效、環(huán)境聲)在同一生成過程中的精確同步。
其最令人驚嘆的一點是,模型甚至可以僅憑一張靜態(tài)的面部照片,重建出高度模仿該人物音色和語氣的語音。雖然該功能因潛在倫理和法律風險被緊急暫停,但它展示了模型在理解生物特征與聲音關聯(lián)方面的驚人深度。
同時,音頻波形可以直接驅動角色面部動畫,實現(xiàn)高度逼真的口型匹配,讓數(shù)字角色的表演不再“貌合神離”。
自動鏡頭切換,小白也能做出電影感
Seedance 2.0內(nèi)置了一個“敘事規(guī)劃器”,它能像導演一樣思考。當你給出一個故事梗概,它能自動將其分解為專業(yè)的鏡頭序列(如遠景-中景-特寫),并在切換過程中保持角色和風格的統(tǒng)一。
即使是不懂分鏡的普通用戶,也能生成具有電影感的蒙太奇片段,極大地降低了視頻敘事的門檻。
02 光鮮之下的技術瓶頸
盡管Seedance 2.0在可控性上邁出了一大步,但從技術層面審視,它距離完美的“世界模擬器”仍有顯著差距。與Sora 2和Google Veo 3.1等競品相比,Seedance 2.0也并非在所有方面都遙遙領先。
復雜物理效果,模擬畫面仍欠真實
當前的AI視頻模型,其對物理世界的理解仍停留在“模式匹配”而非“第一性原理”的層面。這導致在處理復雜或不常見的物理交互時,模型會暴露出短板。
例如,雖然Seedance 2.0生成的簡單的水花飛濺效果尚可,但對于更復雜的液體流動、布料在高速運動下的褶皺與拉伸、毛發(fā)的精細飄動等,它的模擬結果仍顯生硬,缺乏真實感。
在處理多個物體碰撞、堆疊或精細操作時,Seedance 2.0偶爾會出現(xiàn)穿模、懸浮或不自然的加速等“AI怪癖”,它對物體間的空間關系和力學傳遞的理解仍有很大提升空間。
長視頻創(chuàng)作,細節(jié)易漂移、內(nèi)容難連貫
雖然Seedance 2.0在單次生成的十幾秒內(nèi)保持了較好的連貫性,但將時間尺度拉長,問題便開始浮現(xiàn)。目前所有視頻模型都面臨著“記憶衰減”的挑戰(zhàn)。
在一個長達數(shù)分鐘的敘事視頻中,如何確保角色行為的前后動機一致、場景中的物體狀態(tài)保持連續(xù),這對模型的長時程記憶能力提出了極高要求。目前,這類視頻仍需依賴人工剪輯和分段生成來保證效果。
另外,在一些用戶生成的視頻中可以觀察到,即使是Seedance 2.0,在視頻后半段也可能出現(xiàn)細微的“紋理漂移”或“閃爍”現(xiàn)象,尤其是在精細的圖案、文字或背景元素上。
![]()
![]()
上文提到的AI短片《Apex》中,車輛碰撞的角度和車窗碎裂的方式顯然對不上,車上的文字也疑似亂碼
寫實內(nèi)容生成,真實感不及競品
對比Sora 2和Veo 3.1兩大競品,Seedance 2.0在多個維度上展現(xiàn)出差異化優(yōu)勢,同時也暴露出一些劣勢。
Sora和Veo追求的是“模擬一個真實的世界”,而Seedance 2.0追求的是“構建一個可控的片場”。對于需要快速產(chǎn)出、對真實感要求極高的短內(nèi)容,Veo 3.1的原生音畫同步可能是更優(yōu)選。但對于需要精細控制角色表演、鏡頭語言和藝術風格的專業(yè)創(chuàng)作者,Seedance 2.0提供的“導演模式”無疑更具吸引力。
當脫離參考、僅憑文本生成純寫實內(nèi)容時,Seedance 2.0生成的人物真實感和光影細節(jié)的精細度有時會不及兩家競品。這可能源于雙方在模型架構和訓練數(shù)據(jù)側重上的不同設計哲學。
03 “世界模型”是終極進化方向?
通過分析Seedance 2.0所展現(xiàn)出的優(yōu)勢與不足,我們已經(jīng)可以在一定程度上勾勒出AI視頻模型下一階段的演進藍圖。未來的競爭,或將不再僅僅是生成更清晰、更逼真的畫面,而是構建一個更懂物理、更懂敘事的“世界模型”。
在AI領域,“世界模型”是一個經(jīng)常被提及的概念。
簡單來說,世界模型 = 讓 AI 在腦子里“模擬整個世界”。它不是簡單的“看圖、生成視頻”,而是讓 AI 學會世界有什么物體、物體之間怎么互動、物理規(guī)則是什么、事情會怎么發(fā)展,然后在內(nèi)部構建一個虛擬的、可推理的世界。
![]()
“世界模型”可能是AI視頻大模型的終極進化方向
下一代視頻模型的核心突破,將是其“世界模型”的深度和廣度。這要求模型具備更強的因果推理能力,實現(xiàn)基于統(tǒng)一物理邏輯的全局一致性。
例如,當提示詞描述“一陣風吹過”,模型不僅應生成樹葉搖擺的畫面,更應能推理出這陣風會如何影響遠處的旗幟、人物的頭發(fā)以及水面的波紋。這種基于統(tǒng)一物理邏輯的全局一致性,將是實現(xiàn)AI視頻真正沉浸感的關鍵。
就像游戲引擎一樣,先構建一個虛擬世界,然后在這個世界中“運行”一個事件,并用虛擬攝像機“拍攝”下來。在這個范式下,所有的物理交互、光影變化、角色行為都將是自洽且符合邏輯的。
而且,隨著Apple Vision Pro等空間計算設備的普及,未來的AI視頻模型,其輸出或將不再局限于一個平面的“畫框”,而可能是一個完整的、可供用戶進入和探索的3D場景。
![]()
隨著空間計算設備的普及,未來的AI視頻模型很可能進行3D場景的探索
創(chuàng)作者或許可以直接在3D空間中布置虛擬攝像機,規(guī)劃其運動軌跡,而AI則負責實時渲染出該視角下的視頻流。Seedance 2.0的“導演模式”可以看作是這一方向的早期雛形。
總而言之,Seedance 2.0的出現(xiàn),是一個重要的行業(yè)風向標——在AI視頻的下半場,單純的生成能力不再是唯一的王牌,“可控性”和“可預測性”將成為衡量一個模型是否具備工業(yè)化潛力的核心標準。
對于創(chuàng)作者而言,技術正從一個難以駕馭的“創(chuàng)意伙伴”,轉變?yōu)橐粋€真正得心應手的“創(chuàng)作工具”,好的創(chuàng)意只會獲得更大的發(fā)揮空間。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.