飛機上沒網,拒絕25美元WiFi,卻用MacBook完成客戶項目?這個中國開發者的故事在X上爆火,但網友一算賬,發現這事兒有點“玄”!
據說故事主角是位中國開發者,在橫跨大西洋的11小時航班上,面對堆積如山的客戶任務,他沒掏一分錢買機上WiFi,而是掏出64GB內存的MacBook Pro,啟動了本地運行的Llama 3.3 70B模型。
![]()
但故事火了沒幾天,就被技術極客們“扒”出了漏洞。第一刀砍在內存上:Llama 70B用BF16半精度跑,光權重就需要140GB,64GB的MacBook根本塞不下。
![]()
第二刀砍在速度上:原帖說生成速度71 tokens/s,可懂行的網友直接曬實測數據——M5 Max 128GB(比原設備內存多一倍)跑同款量化模型,才12.8 tokens/s。71 tokens/s是什么概念?幾乎是頂級H100集群的速度,MacBook跑這個速度怕是要起火!
第三刀砍在續航上:現代MacBook Pro是一體化設計,所謂“換電池”其實是用充電寶。但M4 Max滿載功耗超40W,而經濟艙USB口功率最多18W,根本供不上。11小時續航?幾乎不可能。
雖然故事里的數據有水分,但背后的趨勢卻讓科技圈興奮:本地推理正在悄悄革命。以前我們習慣了“云端成癮”,沒GPT-4 API就不會寫代碼,沒網AI就成啞巴。現在不一樣了——2024年跑7B模型還需要技巧,2026年M4 Mac跑70B量化版已經是日常操作。
![]()
未來,最牛的開發者或許不是最會調云端Prompt的人,而是能在沒網、資源有限的極端環境下,手搓出自感知、自循環AI系統的人。下次坐飛機,你準備好帶上你的“離線數字大腦”了嗎?評論區聊聊你對本地AI的看法!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.