5月13日,MediaTek 天璣開發者大會 2026(MDDC 2026)在“全域芯智能,體驗新無界”主題下召開,芯智訊也受邀參與了此次大會。與其說這是一場常規技術發布會,不如說這是聯發科對AI下一階段競爭邏輯的一次系統表態:AI手機、AI汽車和AI硬件的競爭,正在從單點算力、單個模型、單項功能,轉向系統級、跨應用、跨終端、全場景協同的智能體化體驗競爭。
在這場發布會上,聯發科(MediaTek)正式發布天璣AI智能體化引擎2.0,并推出天璣AI開發套件3.0。圍繞終端層、系統層、應用層、AI基礎設施層,聯發科從“提供手機SoC的芯片廠商”,進一步進化到全場景AI體驗的底層賦能者。聯發科還公布了與OPPO、XIAOMI、傳音合作的系統原生Claw,展示主動感知、主動執行、跨端無縫流轉等能力。
這也是本屆MDDC最值得關注的變化:聯發科不只是強調端側AI能跑多大的模型、NPU能提供多少TOPS,而是把問題前移到“AI如何真正成為用戶體驗的一部分”。在采訪中,聯發科技方面提到,單純給手機感知能力還不夠,如果不能聯結到有意義的用戶場景,并與Agent能力結合,就很難真正改變使用者體驗。
![]()
△MediaTek董事、總經理暨營運長陳冠州
MediaTek董事、總經理暨營運長陳冠州表示:“智能體 AI 正在重構和升級越來越多的行業和應用場景。MediaTek以覆蓋手機、汽車、IoT以及AI基礎設施的全棧、多元技術與產品組合賦能‘智能體化體驗’,以無處不在的強大算力,結合先進的云端AI加速技術,為全球生態伙伴打通從創意到規模化落地、從應用價值到商業價值的關鍵躍遷,讓 AI 真正賦能大眾的日常生活和千行百業的增長曲線。”
![]()
△聯發科MDDC 2026新品技術應用版圖
AI手機進入下半場:不是有沒有AI,而是AI好不好用
過去兩年,AI手機成為終端行業最熱的概念之一。幾乎所有旗艦手機都在強調大模型、AI助手、AI修圖、AI摘要、AI搜索和端側推理能力。但從用戶體驗看,這些能力仍然相對分散。AI功能很多,但真正能夠持續改變用戶使用習慣的“殺手級體驗”仍然有限。
聯發科技相關負責人對這一問題有一個相對直接的判斷,大致意思是:AI能力本身與AI商品化之間,仍然存在距離。
“AI這件事情的特點在于,它提供能力之后,手機廠商要把它商品化,這其實是有一段距離的。”聯發科技 無線通信事業部 副總經理 陳一強舉例說, “如果只給手機感知能力,手機還是沒辦法聯結到對用戶有意義的場景,結合Agent去變成一個手機的賣點,其實這段路還是沒有辦法讓AI真正來改變使用者的體驗。”
![]()
△聯發科技 無線通信事業部 副總經理 陳一強
這句話點出了AI手機當前的關鍵矛盾:行業已經具備一定端側算力和模型能力,但還沒有完全解決AI如何融入系統、融入應用、融入用戶高頻行為的問題。
聯發科給出的路徑,是Always-On感知與Agent能力結合。所謂Always-On,不只是讓手機一直“聽見”或“看見”,而是讓設備在低功耗狀態下持續感知環境、理解上下文,并在合適時機調用系統和應用能力。例如,用戶排隊叫號時可能正在打游戲,手機如果能持續感知外部信息,并通過智能體提醒用戶,就不再只是一個被動工具,而更接近主動服務入口。
在聯發科看來,端側AI真正的價值不在于單純證明手機可以運行大模型,而在于找到那些云端難以替代、端側最有意義的場景:低延遲、強隱私、高頻交互、個人化記憶、實時感知和跨應用執行。
MDDC釋放的幾大信號:聯發科的角色正在前移
本屆MDDC展現出來的另一個重要信號,是行業需要對聯發科的產業角色進行重新定義。
在過去很長時間里,聯發科主要被外界視為手機SoC供應商。它的競爭維度集中在性能、功耗、影像、通信和游戲體驗上。但在AI時代,芯片廠商僅僅提供算力已經不夠。因為AI體驗能否成立,取決于芯片、系統、模型、工具鏈、終端廠商和開發者之間的協同。
芯智訊認為,目前AI行業已經進入“生態定義體驗”時代,AI體驗競爭正在走向系統級、跨應用、跨終端、全場景協同的智能體化體驗競爭;聯發科不只是端側AI算力提供者,而是在通過全場景AI布局、系統級AI能力、開發工具鏈和生態伙伴協同,推動智能體化體驗規模化落地。
●從SoC到工具鏈,聯發科正在補齊端側AI生態鏈
在訪談中,聯發科技 無線通信事業部 生態發展資深總監 章立也談到,生態不是單點能力,而是一條鏈條。“對于聯發科而言,生態是一個鏈條,每個鏈條環節都有不同的成員,首先找到聯發科的位置,聯發科的位置之上還有其他的終端客戶,還有中間件廠商、OS廠商、開發者。”
![]()
△聯發科技 無線通信事業部 生態發展資深總監 章立
這意味著,聯發科不會直接替代終端廠商去定義所有AI體驗,也不會直接替代大模型公司和應用開發者。但它希望成為這條鏈條中的底層賦能者:向上提供芯片能力、系統級優化和工具鏈,向外連接終端廠商、模型廠商、互聯網公司和開發者。
![]()
![]()
天璣AI開發套件3.0
這也是天璣AI智能體化引擎2.0與天璣AI開發套件3.0的意義所在。前者更偏系統級能力,面向終端廠商和Agent OS演進;后者更偏開發者工具,幫助模型和應用從云端或其他平臺遷移到端側。
聯發科還表示,天璣AI智能體化引擎2.0面向系統,終端客戶可以把其中的系統級優化和能力,包括SensingClaw,放入自己的系統中,再與開發工具一起提供給開發者。
這種位置很微妙,也很關鍵。聯發科既不能只做底層硬件,也不能越界成為上層應用公司。它要做的是把端側AI所需的感知、計算、調度、部署、壓縮、低功耗和生態接口能力打包成“土壤”,讓終端廠商和開發者在其上生長出具體的極致體驗。
●從搶NPU到低功耗常駐,AI手機競爭開始拼系統能力
從行業趨勢看,Agent OS正在成為AI手機的新關鍵詞。問題在于,真正的Agent OS不是給手機增加一個AI助手入口,也不是把大模型接入系統語音助手,而是讓AI具備跨應用理解、跨任務執行、跨終端流轉的系統級能力。在AI手機早期,很多功能以“點狀創新”形式出現:AI修圖、AI消除、AI摘要、AI翻譯、AI助手、AI會議紀要等。但這些功能大多依賴單個應用或單個入口,用戶體驗容易割裂。真正的智能體體驗,需要在系統底層解決資源調度、權限管理、上下文理解、跨應用調用和端云協同問題。
聯發科表示,行業正在遇到一個實際問題:越來越多應用、越來越多手機廠商開始使用NPU,不同應用之間已經出現“互相搶NPU資源”的情況。
“所以這些系統的架構,這些基礎建設,都是我們現在正在努力跟廠商、跟互聯網公司一起克服的目標。”
這句話說明端側AI競爭已經進入工程深水區。過去談AI手機,外界習慣比較NPU TOPS、模型參數量和是否支持端側運行;但當AI功能變多之后,問題會迅速轉向系統資源如何分配、多個AI任務如何并行、常駐模型如何控制功耗、數據如何留在本地、應用之間如何安全調用。
如果這些問題不能解決,AI功能越多,系統負擔可能越重,用戶感知反而越差。
在智能體時代,低功耗常駐能力可能比峰值算力更重要。因為真正的個人智能體不是用戶點擊后才開始工作,而是在低功耗狀態下持續感知、整理、判斷,并在必要時主動介入。這也是聯發科強調eNPU的原因。eNPU并不是為了追求峰值算力,而是為了支持常駐輕載AI模型,以更低功耗完成持續感知。據了解,天璣AI開發套件3.0新增eNPU開發工具包,可幫助開發者發揮天璣芯片中超能效NPU優勢,使常駐輕載AI模型功耗節省42%。
●內存、帶寬和功耗,成為端側AI真正的門檻
如果說過去兩年AI終端競爭的焦點是算力,那么本屆MDDC釋放出的另一個信號是:端側AI的新瓶頸正在轉向內存、帶寬和持續功耗。
隨著AI走向實時感知、多模態和智能體協作,行業關注點正在從算力轉向內存占用、帶寬效率和持續功耗。
聯發科技 無線通信事業部 技術規劃資深總監 李俊男表示,這確實是端側AI最具挑戰的地方。
“算力經過這幾年的優化,在手機上去年就已經到100TOPS了,今年可能還會再上升,算力看起來是可以足夠滿足應用需求。現在需要突破的就是帶寬問題和內存大小的問題。”李俊男表示,聯發科正在通過Low Bit壓縮工具包等方式優化頻寬和內存占用,“這對內存的節省、頻寬的節省是非常有幫助的。”
![]()
△聯發科技 無線通信事業部 技術規劃資深總監 李俊男
這一判斷具有現實意義。端側AI要想從發布會演示走向用戶日常使用,不能只看一次推理速度,而要看連續使用中的能耗、發熱、內存占用和系統穩定性。尤其在AI大模型持續推高存儲和內存需求的背景下,終端廠商不可能無限堆料。
天璣AI開發套件3.0新增Low Bit壓縮工具包,可降低生成式AI模型壓縮過程中對設備內存的占用,相同質量模型的壓縮率提升可達58%;同時,天璣AI Partner可將端側LLM模型部署耗時最高節省90%。這類工具的意義不只是提升開發效率,更是在幫助端側AI找到商業化可行性。因為終端廠商最關心的不是模型能否在實驗室跑通,而是模型能否以可接受成本、可接受功耗、可接受內存占用進入量產終端。
聯發科也談到內存漲價對行業的影響。聯發科表示,內存漲價已經開始影響消費電子,終端廠商面臨較大成本壓力。過去內存便宜時,廠商可能傾向于“盡量放很多內存”,但當內存價格上升后,行業會重新思考每個消費性產品端側AI的意義,“不太會去做一些硬要去做的,比如端側也要證明可以跑一個更大的模型,這可能沒有意義。”
這實際上是對AI終端泡沫的一種提醒。端側AI的價值不是“把云端大模型完整搬到手機里”,而是在合適場景下找到端側不可替代的價值。隱私、低延遲、常駐感知、個性化記憶和離線可用性,才是端側AI真正值得付費的地方。
“龍蝦”上手機,AI終端進入個人智能體試驗期
今年,OpenClaw、Harness以及手機廠商提出的“手機養蝦”框架,成為個人專屬AI領域的新變量。對于這些新形態產品,聯發科認為其可能加速智能體化體驗落地。
![]()
在采訪中,聯發科表示,Harness技術是聯發科“相當期待”的方向。“現在AI發展太快了,我們不得不往前跑,自己去想象一些場景,自己去建設中間層、軟件層,把整個串起來,去說明智能體化體驗是什么東西,這是我們三年來去持續做的。”
在聯發科看來,OpenClaw一類架構的意義在于,它把Harness與大模型“大腦”拆開,使手機可以先把Harness跑得很好,而不必等待所有大模型能力都完整落到端側。“今年我們不用等到所有東西都跑到端側,我們可以把大腦的部分,太困難的部分把它留著,可以提前讓龍蝦在手機上跑得非常快。”
這對芯片規劃也會產生影響。過去行業談AI芯片,往往只看NPU強不強;但在Harness架構下,AI能力不再只是NPU問題,也涉及CPU和系統調度。
“坦白講,Harness是需要CPU的。以往我們談AI,就是這個芯片的NPU強不強,其實它不止是NPU,它其實是NPU甚至跟CPU跟整個系統的調度都有關系。”聯發科表示,當智能體進行個人記憶總結、場景動態判斷和記憶庫構建時,很多時候需要CPU參與,因此CPU如何以更高能效運作,也是聯發科與客戶持續合作的方向。
這說明,個人專屬AI并不是一個簡單的大模型應用,而是一個涉及感知、記憶、推理、執行、調度和隱私邊界的系統工程。OpenClaw和Harness的出現,加上聯發科從芯片層、系統層、應用層乃至AI基礎設施層的全棧賦能,可能讓行業更早看到個人智能體在現有手機硬件上的落地可能。
AI手機的明星場景,可能先從影像和生產力爆發
雖然聯發科強調系統級智能體體驗,但短期內,AI手機仍然需要幾個用戶感知強、使用頻次高的明星場景來完成教育市場。
聯發科提到,手機端比較有機會的場景之一是拍照。“現在安卓的拍照手機,基于我們天璣芯片做的拍照其實是蠻好的。但是最大的問題可能是功能多到不會用,那這個時候再好,對用戶的幫助是不大的。”
因此,聯發科認為可以做“相機”。它不是簡單增強畫質,而是成為用戶身邊的拍照專家。“你拍任何景,它就會幫你做好設定,取景它也可以幫你建議一下,前進后退、放大縮小、你擺什么姿勢。”聯發科表示,這應該是一個努力方向,也許今年大家就可以看到。
第二類場景是生產力。聯發科提到,每天做工作計劃、排會議、判斷哪些郵件更重要,都會是有價值的AI場景。相比單純炫技,這些高頻、剛需、能節省時間的場景,更容易讓用戶建立對AI手機的真實依賴。更重要的是,聯發科承認,這已經“跨越原來芯片的角色”。過去芯片廠商更多等待終端廠商和應用開發者提出需求,再圍繞場景優化芯片;現在,聯發科必須更早參與用戶場景的尋找和定義。這是芯片廠商在AI時代角色前移的典型表現。
汽車座艙成為智能體 AI的第二戰場
除了手機,聯發科在本屆大會中也明顯強化了汽車座艙與跨端AI體驗的敘事。
![]()
聯發科技 車用平臺事業部 副總經理 陳仲怡表示,汽車是非常適合AI的載體。原因在于,車艙內有camera、speaker,用戶在車內用語音交互非常自然,攝像頭也可以持續感知用戶動作,因此車內應用互動會更加自然。
“我們自己覺得,在車上,尤其是Agentic AI出來之后,會有越來越多新的體驗。”該負責人舉例說,用戶可以讓車機“幫我推薦餐廳”“幫我訂餐廳”“幫我導航規劃”,這一整套應用會形成連續的Agent應用。“我們一直認為這種體驗最后都是靠AI來完成的,所以我們一直講現在是AI定義汽車的時代。”
![]()
△聯發科技 車用平臺事業部 副總經理 陳仲怡
芯智訊認為,聯發科看待汽車AI并不局限于傳統智能座艙,也不只是語音助手升級。它更強調座艙作為一個高頻、自然、強上下文場景,適合承載連續任務型智能體。與手機相比,汽車受電池限制較小,因此座艙平臺可以提供更高算力。據介紹,天璣旗艦座艙平臺CX-1算力可以達到400TOPS,能夠支持更多應用。
但即便算力更強,汽車AI同樣面臨內存和帶寬問題。因此,聯發科也需要通過硬件壓縮和軟件層面節省頻寬的技術降低整體消耗。
可以說,手機和汽車雖然形態不同,但在AI落地過程中遇到的核心工程問題是相似的:算力只是基礎,真正決定體驗的是系統級效率。
AI體驗真正的分水嶺,是誰能把Agent做成系統能力
過去,芯片廠商只要把CPU、GPU、NPU、ISP、通信和功耗做到行業領先,就能支撐終端廠商完成產品定義。但智能體時代不同。AI體驗不是一個獨立模塊,而是一套橫跨芯片、系統、模型、應用、云端、設備和開發者生態的復雜工程。任何一個環節不通,最終都會變成零散功能,而不是用戶真正愿意依賴的智能體。
因此,本屆MDDC真正重要的信號,并不是某一項技術指標,而是聯發科開始系統性回答三個問題:
第一,AI為什么必須在端側存在?答案不是為了證明手機能跑大模型,而是因為端側在隱私、低延遲、實時感知、個人記憶和高頻場景中具備不可替代性。
第二,芯片廠商為什么必須進入生態深處?因為AI體驗能否落地,不再只取決于算力,而取決于系統調度、開發工具、模型壓縮、跨應用調用和終端廠商的集成能力。
第三,智能體化體驗為什么現在還不夠成熟?因為行業還沒有完全解決端云邊界、數據權限、系統入口、NPU資源競爭、內存成本和持續功耗等工程問題。
聯發科已經給出了自己的方向:以Always-On感知作為入口,以eNPU和雙NPU提供能效與算力基礎,以天璣AI智能體化引擎2.0進入系統層,以天璣AI開發套件3.0連接開發者,以手機、汽車、IoT和AI基礎設施構建跨端場景。
但這條路不會輕松。Agent OS能否成立,取決于終端廠商是否愿意開放足夠系統能力;個人專屬AI能否被用戶接受,取決于隱私邊界和數據安全能否被清晰定義;跨端智能體能否流轉,取決于不同品牌、不同系統、不同設備之間是否愿意協作。
簡單總結MDDC 2026的核心信息,可以概括為一句話:AI行業競爭正在從“算力定義體驗”進入“生態定義體驗”的階段。在過去很長時間里,聯發科主要被外界視為手機SoC供應商。它的競爭維度集中在性能、功耗、成本、影像、通信和游戲體驗上。但在AI時代,芯片廠商僅僅提供算力已經不夠。因為AI體驗能否成立,取決于芯片、系統、模型、工具鏈、終端廠商和開發者之間的協同。聯發科不再滿足于繼續做AI時代的算力供應商,而是越來越成為智能體體驗的底層組織者,用貫通端云的生態土壤,讓真正有用、好用的智能體化體驗,在聯發科攜手眾多先行者編織的能力網絡中,快速地生長出來。
真正的考驗,將發生在接下來一到兩年量產終端中——只有當用戶不再關心手機里跑著什么模型,而是在日常使用中真實感受到AI主動為自己服務時,智能體化體驗才算真正進入市場。
編輯:芯智訊-浪客劍
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.