田晏林 發自 凹非寺
量子位 | 公眾號 QbitAI
消費級機器人行業,可能要出現一次真正意義上的代際切換了。
過去幾年,大家見過太多機器狗:能跑、能跳、能翻跟頭。但問題一直沒變。
它們很多時候其實看不清、聽不清,也想不明白。
![]()
行業主流方案,還是200萬像素攝像頭、16線激光雷達、單芯片算力架構。
機器人能動,但距離真正理解世界,始終差一口氣。
直到剛才,我看到一組「離譜」數據——
6600萬像素、HDR140db、223.2萬點云/秒、70億參數端側運行280TPS。
更關鍵的是,它沒有在英偉達的規則里卷。
而是用6顆芯片組成異構計算集群,把消費級機器人的算力效率,直接拉到行業10倍以上。
這組數據,來自蔚藍科技剛剛發布的BabyAlpha A3消費級四?機器?。
![]()
這家已經賣出超2.5萬臺的消費級四足機器人、累計交互6548萬次、用戶使用時長超9.5億分鐘的公司,終于把過去幾年積累下來的核心技術,集中兌現到了A3身上。
信號已經很明確:消費級四足機器人,正在從會動,進入會理解人的新階段。
那么,問題也來了。
當機器人的感知和算力都捅破行業天花板,具身智能,究竟會被推到什么位置?
機器人終于不再“半盲”
過去幾年,消費級機器人行業一直有個很隱蔽的問題。
大家都在卷運動能力。翻跟頭、跑酷、越障、爬坡,動作越來越像科幻片。
![]()
但感知系統,其實一直停留在「能用」階段。
逆光環境容易看不清,復雜空間容易誤判,動態目標捕捉慢。
很多機器人表面上很聰明,本質上還是在模糊理解世界。
這也是為什么,行業里大量機器人看起來很靈活,但真正脫離遙控和預設環境后,依然像個「半盲選手」。
機器人如果連世界都看不清,就談不上真正自主。
而A3最狠的地方,就是直接把感知維度拉高了一個時代。
![]()
先看視覺。
A3搭載了超能視覺感知系統,由5000萬像素主攝+f/2.8 超廣角+4K全景攝像頭組成,分辨率分別為8K、4K、4K,總像素達到6600萬,還包括了1/1.3英寸大底。
什么概念?很多旗艦手機主攝,才5000萬像素。
![]()
更關鍵的是感光能力達到HDR140db視網膜級別。
行業主流機器人,大多還停留在HDR90db以下,而人類眼睛理論動態范圍,大約在100db~120db之間。
A3第一次把機器人視覺動態范圍,推到了超過人眼的水平。
![]()
這意味著,以前機器人在強逆光、暗光、復雜明暗切換環境里,經常會瞬間「失明」。
但現在,A3真正具備了復雜光線下的環境理解能力。
還有一個特別容易被忽視的數據——最高幀率480fps。
行業主流很多還是30fps,類似普通視頻。
480fps,接近超慢動作視覺。
高速運動目標、兒童跑動、突然出現的障礙物,在機器人眼中都是慢動作回放,是可以逐幀分析的清晰畫面。
這還不是最夸張的。
真正拉開代差的,是空間感知。
A3用了5組3D ToF+3D結構光構成的360°環視面陣,點云密度達到223.2萬點/秒。
![]()
而行業大量16線激光雷達方案,點云密度只有4.8萬點/秒。
「點云密度」可簡單理解為:每秒鐘機器人通過傳感器采集到的三維空間點的數量。
高密度點云就像高清照片,能分辨出細小的障礙物(比如電線、玩具、小臺階)。而低密度點云就是一張馬賽克圖。
4.8萬點/秒VS 223.2萬點/秒,差距接近兩個數量級。
如果說別人的機器人還在用2G地圖導航,那么A3已經切到了4K實時地圖。
它看到的,不再只是障礙物輪廓,而是一個高精度、實時變化的三維世界。
![]()
聽覺系統也一樣。業內很多機器人只是「聽到聲音」。
A3全球首發12-Mic 3D Mesh仿生立體聽覺,能「聽懂聲音從哪來」。
12個麥克風組成三維聲場陣列,可以判斷方向、距離、空間位置。
![]()
謙虛點說,它更接近具身智能。但依我看,這就是具身智能啊!不僅理解語言,還能理解環境。
就像人類干活兒,要求「知行合一」,只有感知對了,才能更好地行動。具身智能的終極目標不就是如此么?
在這樣的感知能力下,A3也在挑戰自己,目前它的最高速度能達到3.5m/s,能夠爬上45°角的坡,最大越障能到28cm。
![]()
注意,這不是炫數字。機器對復雜環境的理解,已經產生質變了。
同時,這也意味著具身智能從實驗室邏輯,進入真實世界邏輯。
但看得見,只是第一步。
獨創異構計算集群,繞開英偉達路線
感知到了,還得「想得動」。
過去5年,無論是英偉達親兒子OrinNX,還是國產性價比高手,大家本質上都是在單芯??案?卷。
究其原因,還是端側算力跟不上,無奈只能被拉進英偉達的路線上硬扛。
事實上,這種路線有非常明顯的物理上限。功耗、散熱、成本、實時協同能力,都會越來越難。
于是行業出現一種很詭異的狀態。
機器人越來越貴,但真正的智能提升卻越來越慢。
這也是為什么很多機器人看起來越來越像「高配遙控車」。
能動,但不會思考。
A3這次換個方向突圍,不再繼續堆參數,直接繞開英偉達路線。
它做了一套自研的「具身智能邊緣端混合異構計算集群」。
簡單理解,它更像一個「芯片智囊團」。不是讓一顆芯片硬扛所有任務,而是6顆芯片分工協作。
![]()
2顆5nm芯片、2顆8nm芯片、2顆3D堆疊芯片,共計22核CPU。
不同芯片負責不同任務。感知、決策、運動控制實時協同。
像公司里產品、技術、設計、運營同時開工,而不是一個人既寫代碼,又做PPT,還得拉融資。
這背后其實是路線之爭。跟著英偉達規則走,只能拾人牙慧,不如換條賽道,自己跑。
因為消費級機器人真正的問題,從來不是「能不能做出來」,而是「能不能讓普通家庭買得起」。
這也是為什么,A3最核心的一組數據,不是參數,而是效率。
- 15億參數模型下,617TPS;
- 30億參數模型下,427TPS;
- 70億參數模型下,280TPS。
![]()
行業什么水平?很多競品70億參數根本跑不起來。能跑的,最高也就6TPS。
競品思考?句話的時間,A3已經能完成?段對話了。
更關鍵的是成本,國產方案300多美金,而英偉達Jetson Thor T5000,約3000美金。
蔚藍打破了算力壟斷,用更少的成本做出超越英偉達的效果,這能不服?
![]()
其實這件事真正有價值的地方在于,它第一次把「端側真正跑通大模型」,拉進了消費級市場。
過去行業有一種很重的云端「依賴」,本質上還是芯片算力弱。
但機器人和ChatBot不一樣。它得實時感知、實時決策、實時運動。
云端延遲,很多時候意味著機器人直接撞墻。
而A3因為算力夠強,能在「端側跑通大模型」。而這,恰恰是Physical AI得以落地的核心基石。
能進入家庭的機器人,首先得足夠安全
感知、算力、運動能力這些參數再強,也只是消費級機器人的入場券。
真正決定一臺機器人能不能進入家庭的,其實是另一件更底層的事:安全。
因為家庭環境和實驗室完全不是一個世界。
實驗室里沒有突然躥出來的貓,沒有滿地拖鞋和掉落的充電線,也沒有剛學會走路的小孩。但真實家庭里,這些場景全都有。
![]()
△AI生成
蔚藍很早就把安全放在了極高優先級,所有原材料和零部件均來源于全球頂級供應商,很多設計思路都來自真實家庭里踩過的坑。
這次,A3身上有一個明顯特點:它的很多安全能力,不是后加的,而是一開始就嵌進了底層設計。
比如物理安全。
行業很多機器人,關節、線束、運動結構都暴露在外。一旦兒童誤觸,很容易出現夾手、碰撞等問題。
而A3直接做了隱藏式關節、隱藏式線束、防夾手設計。甚至在故障狀態下,還能實現毫秒級安全制動。
![]()
這很像汽車行業從機械時代進入智能時代后的變化。
真正高級的安全,不是出了問題能救回來。而是盡可能不讓問題發生。系統安全也一樣。
很多人現在討論機器人,都在關注安全邊界。
當機器人開始具備長期聯網、自主行動、持續感知環境能力后,它本質上已經是一臺會移動的智能終端,不能再按普通玩具思路設計了。
A3這次直接上了端云雙重安全架構。
端側有360安全大腦做惡意攻擊、木馬病毒、遠程攻擊的攔截。
![]()
云端則接入等保三級+阿里云安全體系+Azure DDoS防護。
本質上,它已經開始按「智能終端級別」做安全。
還有一個很關鍵的點:隱私。
過去幾年,很多用戶對家庭機器人的最大顧慮,其實不是貴,而是不放心。
畢竟,家是每個人安全的港灣,是一個能讓人徹底放松下來的地方。
可如果一個集移動攝像頭、麥克風、傳感器于一身的設備,長期待在家里,那算怎么回事兒?
所以蔚藍這次強調了一件事:盡可能把算力和數據處理留在本地。
![]()
包括本地可信計算架構、全鏈路通信加密、端側數據存儲與處理、安全啟動鏈等等。
這不是簡單說一句「我們不會泄露數據」,而是從架構層面,讓很多數據壓根不需要離開設備。
這件事非常重要。
特別是對于消費級具身智能來說,想要大規模進入家庭,「安全」比「智能」重要多了。
萬元級消費機器人背后
這也是消費級量產玩家非常少的原因。
To B、To G業務還能靠關系、項目或定制化拿單,但To C行不通:消費級市場只關心一件事:用戶到底愿不愿意掏錢。
蔚藍不依賴ToB、ToG先跑規模,而是選了一條要求技術必須真正做到低成本、高可靠的難路。
公司從2019年成立的第一天起,定位瞄準的就是萬元級消費產品,主打家庭場景和長期陪伴。
![]()
△AI生成
行業很多公司還在Demo階段,蔚藍的核心產品BabyAlpha,已經累計賣出超過2.5萬臺,是全球銷量最多的消費級四足機器人產品。
![]()
蔚藍內部有個很重要的邏輯。
四足機器人,是人形機器人真正成熟之前,必須經歷的「啟動階段」。
先用消費級四足產品獲取真實世界數據,再反哺具身智能大腦訓練。
催熟?腦智能后,建?產業鏈規模壓縮成本,解決?形機器?在消費場景下的成本-價值倒掛問題。
這件事非常關鍵。
當前,想讓機器人從「演示Demo」走向「實用落地」,許多玩家在訓練產品時,依然苦于缺少高質量、規模化、有真實物理交互的數據。
很多公司還在靠合成數據訓練,真實的家庭環境數據,幾乎沒法模擬。
殊不知,孩子突然撲過來、玩具散落一地、客廳燈光變化、多人同時說話……這些真實世界噪聲,才是機器人真正的考場。
![]()
△AI生成
而蔚藍的2.5萬余臺訂單量、用戶累計使用時長超9.5億分鐘;累計交互次數超6500萬次所積累的數據,全部來自真實家庭環境,而非實驗室生成。
為了獲取這些可貴的數據,蔚藍分了四步走:
- ?機價格帶的?童陪伴產品完成規模出貨,獲取真實家庭場景數據
- 基于用戶數據訓練云端模型+?密度OTA,產品用戶粘性不斷提?;
- 通過技術創新,壓縮產品成本,為算?讓路,將云端模型下放端側
- 最后,對?用戶進?低利潤產品升級和回收,形成持續的「數據→智能→產品」完整?輪。
![]()
本質上,它已經不是單純賣硬件了,而是持續訓練具身智能。
核心團隊
最后,再聊聊團隊。
創始人劉維超,是一位連續創業者,從中學時期就對智能體算法感興趣。
2009~2011年,他連續三年拿下RoboCup人形機器人國際冠軍。
之后赴德國留學,在波恩大學攻讀人工智能機器人專業。
他師從德國波恩?學計算機學院院?Prof.Sven Behnke、萊布尼茨獎獲得者Prof. Daniel Cremers,并與?動駕駛之?Prof. Sebastian Thrun系出同?。
![]()
△蔚藍科技創始人劉維超
2012~2017年,劉維超創立過AUGTEX,還是LoRa Alliance創始董事成員、亞太區唯?董事成員。
2018年,他開始籌備蔚藍科技。目前,整個技術團隊有賓夕法尼亞大學GRASP Lab、UIUC AI Lab、哈工大等全球頂級實驗室背景。
相比科研背景,他們搭建產業的能力也很強。
這么說吧,前面咱們講到的「感知、運動能力」是進入物理世界的身體,「算力」相當于底層引擎,「數據密度」是企業的護城河,「安全」是進入家庭場景的生死線。
那么「產業化」,就是具身智能公司把復雜技術帶進消費級市場的最后一道門檻。
在這方面,蔚藍積累了多年經驗。
2021年,其第2代工程機C200,打破了MIT四足機器人奔跑速度和旋轉速度紀錄。
2022年,公司建成國內首個四足機器人量產工廠。
![]()
2023年,蔚藍推出全球首款家庭陪伴四足機器人BabyAlpha。
到了2024年,全國首家消費級具身智能零售門店落地南京德基。
很多公司還在講未來,蔚藍已經開始把機器人真正放進商場、放進家庭。
消費級具身智能真正難的,從來不是做出Demo,而是持續量產、持續迭代、持續進入真實世界。
BabyAlpha A3真正有意思的地方在于,它第一次把感知、算力、自主能力,拉進了同一個時代。
![]()
當機器人開始看得比人更清楚,想得比過去更快,一個新的問題就出現了:人造勞動力,離普通家庭還有多遠?
或許,消費級具身智能真正的臨界點,不是在實驗室里。
而是在某一天,一個售價萬元級的機器人,真正開始進入普通人的客廳。
據官方介紹,BabyAlpha A3預計Q3正式上市。
真正的消費級具身智能,可能要從這一代開始了。
ps:BabyAlpha A3首發權益禮盒已置頂評論區,需要的朋友自取~
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.