龍蝦本和AI Box的火熱都暗示著智能體PC快速發展成為既定事實。作為AI PC衍生形態的重要分支,智能體PC執行效率更高,但配置和復雜度也同步升級,究竟如何調用本地AI和云端AI算力,智能體PC如何做到可靠、簡單、易用,都是整個行業需要探討的問題。在這個時間點,英特爾的進場也意味著整個剛剛建立起來的龍蝦生態進入高速發展階段。
![]()
那么英特爾打算如何造智能體PC?在發布會后,我們有幸通過英特爾中國區技術部總經理高宇和在場的英特爾技術專家,對智能體PC進行了更深入的了解。
![]()
智能體PC的核心競爭力
安全護欄(Guardian)和任務路由(Hybrid AI Routing)被認為是智能體PC的核心競爭力之一,安全護欄是將防護從被動防御升級到主動防御,這不是傳統殺毒軟件或防火墻,而是嵌入AI推理流程中的實時決策層。它在大模型生成動作指令與實際執行之間插入了一道判斷閘門。任務路由更好理解,任務如何歸屬本地算力和云端算力,主要是由任務路由完成。
龍蝦應用場景目前面臨了兩種高危操作,一種是系統級危險操作,通過自然語言歧義,例如通過“恢復到以前狀態”直接對系統進行完全重置而直接崩潰。安全護欄(Guardian)就是要解決這樣的問題,在刪除動作執行前,識別操作風險等級并中止。
同時,安全護欄也能很好的解決數據泄露風險,在數據出站網絡請求發起前,掃描文件元數據/內容標記,觸發攔截。
![]()
值得注意的是,安全護欄不是讓大模型重新理解提示詞,而是無論模型如何理解,只要輸出的是刪除或者上傳等危險動作,一律被攔截。這降低了依賴模型自身安全對齊的不確定性。目前安全護欄屬于Skill防護,屬于應用層面,但數據安全已經迫在眉睫,意味著這一套安全方式未來會給AI提供不同的訪問等級,例如通過可信執行環境TEE,配合AI推理的融合架構,敏感數據在硬件隔離區內完成推理,即使系統層被攻破也無法提取。
![]()
任務路由(Hybrid AI Routing)解決的是AI算力的歸屬問題。想讓智能體PC開箱即用,讓用戶自行手動切換的體驗注定不會好。目前有兩種方式可以選擇,一種是大模型自路由,由云端大模型判斷任務的分配給云端還是本地,缺點是響應延遲會變高,同時也會占用本地算力。另一種是外掛專門的路由模型,響應速度快,但是會增加系統復雜度。目前兩種路由方式都在驗證和討論中。
雖然還沒有最終定論,但路由判斷決策已經成型,它應該具備文本總結和復雜推理的區分能力,并且能夠標記數據敏感度,洞察本地算力資源狀態,判斷網絡質量,以及對Token成本的自行判斷。
![]()
與安全護欄一樣,任務路由目前也處在Skill階段,英特爾在其中扮演了路由決策框架角色,而非最終路由產品的提供者。在此基礎上,OEM和ISV可以按照路由決策框架疊加自家商業邏輯,完成任務路由部署。
有意思的是,英特爾強調了發布會現場展示的文生圖、ASR、TTS、OCR等7個Skill開發周期不超過一天,相比傳統應用數個月的開發周期,Skill的升級速度碾壓了后者至少兩個數量級。也可以遇見智能體PC Skill發展后續是非常猛的。
回答了核心的Skill問題的同時,如何在端側完成AI算力卸載也同樣是一個問題。AI SSD正是在這樣的需求下誕生的。AI SSD是英特爾與群聯合作的軟硬件協同的方案,在硬件層通過SLC+TLC混合分區組合,滿足KV Cache和靜態存放數據的需求。
AI SSD在軟件層面具備兩個核心機制。一個是MoE冷專家卸載,MiniMax和部分Qwen版本在推理時并非所有專家模塊都會被激活。通常只有5-10%的專家參與單次前向傳播。將當前任務不需要的冷專家權重從內存卸載到AI SSD的TLC分區,僅保留熱專家在DRAM中。這樣做可以顯著降低常駐內存占用,使16GB設備能運行理論上需要32GB+的MoE模型。
![]()
與此同時,AI SSD也可以讓KV Cache實現復用。大模型生成文本時,已生成的Token的Key-Value狀態需要保留在顯存/內存中,以便后續Token計算注意力。長文本生成的KV Cache膨脹極快,是模型權重的數倍。這時候后如果將已計算完成的KV Cache寫入AI SSD的SLC分區,下次生成時直接讀取復用,無需重新計算。當KV Cache復用得以實現,多輪對話、長文檔續寫等場景將會被加速,并且還能進一步釋放DRAM壓力。
英特爾在現場就演示了一款16GB內存的輕薄本實現了35B模型的運行自由。35B模型通常需要約70-80GB(FP16)或35-40GB(INT8)的內存實現。通過AI SSD擴展,16GB物理內存即可運行,并且可以完成多輪對話,不受內存容量限制。當然這也是在內存與SSD日益昂貴的前提下,折中妥協的解決方案。
![]()
即便如此,這套方案能夠在DDR內存降價之前,就能帶來顯著的降本增效收益,無論內存和SSD是否降價,這樣的收益在任何時候都是難以拒絕的。目前為止,AI SSD還屬于英特爾與群聯的合作方案,英特爾有意將其推廣為行業通用標準,類似當年傲騰的持久內存概念,但用更成熟的NAND Flash實現。
構建生態,不做全案
AI Box在發布后被廣泛關注,不同于早年的Intel NUC,AI Box提供的底層硬件平臺參考設計和下一層軟件解決方案,而非軟硬件的全面推廣,因此AI Box與此前的NUC有很大的不同。NUC主要提供了主板參考設計、散熱、機箱規范以及基本驅動支持,然后由華碩、技嘉、小米等廠商去制造整機、貼牌銷售。英特爾本質上賣的是標準化積木,而非完整產品。
AI Box可以理解成進入智能體PC時代后的一個分支升級。英特爾提供的是AI Box等設備的底層算力平臺參考設計,在軟件層具備原子化的AI加速API、模型封裝、Guardian安全能力。最后在生態上,由硬件制造、軟件ISV、模組廠商以及系統集成商共同完成。
![]()
因此在分工上,英特爾負責AI Box的底層架構,包括由酷睿Ultra構建起來的算力平臺,AI SSD硬件規范和接口標準。同時提供底層驅動和系統級優化,并將AI模型加速、API調用、安全防護等復雜功能深度優化后抽象為標準化接口。
在硬件基礎之上,則是由英特爾與合作伙伴共同打造的標準,英特爾負責輸出概念驗證和技術思路,合作廠商打造具體的商業化方案,比如將安全護欄Guardian產品化,任務路由方案落地,以及AI SSD的標準最終由SSD廠商以及OEM共同實現。
有了硬件和標準托底,生態才有機會實現自由發揮。例如AI Box本體可以是由NUC合作伙伴制造,軟件層面則可以五花八門,比如QClaw、Molili、百度DuMate、騰訊WorkBuddy、TRAE等。
![]()
這套生態打法目的是突破各領域潛在的小白用戶,智能體PC的初衷是做到開箱即用。英特爾在其中扮演的橘色是牽頭定義技術方向,輸出標準,然后與合作伙伴共同創新,打造豐富的智能體PC生態。這樣做的好處是,可以最大化的提升各領域廠商的分工效率,英特爾的核心競爭力在半導體設計、制程、系統級優化,而非硬件制造或者軟件消費,同時標準化接口可以避免過度零碎的千人千面方案,圍繞在合理的標準下構建豐富的生態場景。
英特爾的目標是讓智能體PC成為普適化設備,而非高端玩家的玩具。只有開放生態,才能讓不同價位的設備、不同偏好的軟件共存,最終讓AI算力成為處理器的評判標準,而非少數品牌的溢價工具。
![]()
讓門檻降低
構建簡單易用的Skill生態被認為是降低智能體PC的關鍵。現在本地部署AI門檻是地獄級的,在Skills出現之前,讓普通用戶在本地PC上跑起一個AI工作流,至少需要完成安裝Python、CUDA、PyTorch/TensorRT、依賴庫版本對齊,再從HuggingFace等站點下載幾十GB權重文件,選擇FP16、Q8等量化版本,然后再配置上下文長度、溫度系數、Top-P、系統提示詞,最后用代碼或YAML將多個模型工具串聯,非常復雜。
由此可見,Skill一鍵封裝成為關鍵。Skills的本質是將上述所有步驟打包成一個可聲明式安裝的單元。用戶與Agent的交互簡化到一句話,比如“幫我安裝這個Skill"”即可完成。這意味著Skills的安裝過程是Agentic,大模型本身作為執行者,自動完成下載、配置、注冊,而非用戶手動點擊安裝向導。
英特爾嘗試構建Skill生態,目的就是加速這個安裝和部署的過程,并幫助用戶重復試錯,短時間內找到最優解。用Skill作為容器,封裝模型選擇、量化配置、提示詞模板、工具調用鏈。對于開發者而言,合適的Skill生態可以形成可復用的知識沉淀,類似GitHub的代碼倉庫或Docker Hub的鏡像。
![]()
正如前面所說,發布會當天展示的7個Skill實際上只用了一天就完成了開發,則是因為Skill本身依賴于Web Coding成熟表現,AI輔助編程已經能讓代碼生成和調試效率倍增。與此同時,大模型作為執行引擎,可以讓Skills的安裝和運行依賴Agent的自動執行能力,開發者只需定義做什么,不必寫完整的安裝腳本。
同時,完善的Skill生態類似于各廠家官方APP Store,可以很好的避免危險的操作,構建完整的功能封裝和安全護欄結合,確保本地信息安全。Skill可以被當成優選APP一樣,選擇和下載。
當然Skill生態的商業模式細節還有待探討,在概念成型至今僅有數個月的時間內,英特爾在做的是不斷降低開發門檻高,利用生態優勢帶動業內合作伙伴快速填充Skill生態中的內容。
![]()
毋庸置疑的是,Skill生態配合智能體PC,可以讓端側AI體驗更進一步。特別是在弱網環境中實現高可用,以及零Token成本實現本地推理,確保本地圖像、語音和數據文檔不出本地設備,這些都是AI PC和智能體PC的優勢。
在現階段,端側AI PC已經可以做到同時部署35B本地大模型、OCR、Z-Image和ASR/TTS等多個模型。所有模型在一個任務流中,模型按步驟喚醒,而非同時駐留內存,從而保持資源釋放,這個過程對于用戶而言是一步完成,類似于汽車的自動擋,檔位切換是無感知的。
面對逐步升級的存儲壓力,智能體PC的硬件成本也應該控制在可接受范圍內。這實際上是一場精度與成本的博弈,例如目前的最先進的KV Cache壓縮技術應該持謹慎態度,因為極致的內存壓縮是以犧牲顯著精度為代價的。這種精度損失的程度,對于行業是否可接受,目前仍是一個待討論的問題。
![]()
在現在的條件下,如何讓16GB內存變得可用,精度如何平衡不同任務類型中的表現,有效的在壓縮方案、資源與質量之間做出權衡,都是非常值得探討的問題。
在現在最前沿的消費端算力前提下,也應該遵循夠用原則。比如端側運行35B模型,配合16G+AI SSD或32G內存,CPU配置選擇酷睿Ultra X7 358或325即可提供優秀的綜合體驗,更復雜的內容應該交給云端,構成本地為主、云端為輔的混合架構,在成本、延遲、隱私基礎上完成優化,提升智能體PC的易用性和普適性,這才是英特爾推動整個智能體PC生態發展的重要目的。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.