<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      壓縮即是全部 —— 菲爾茲獎得主 Michael Freedman 給數學和 AI 的一封信

      0
      分享至

      來源:市場資訊

      (來源:圖靈人工智能)

      您想知道的人工智能干貨,第一時間送達



      2026 年 3 月,菲爾茲獎得主 Michael Freedman 發了一篇只有 30 多頁的論文,標題叫《Compression is all you need》。他用一個優雅的代數模型回答了三個古老問題:人類怎么構建數學?人類數學和形式數學的本質區別是什么?未來人類數學家如何和 AI 協作?答案只有兩個字——壓縮。

      2017 年 6 月,Google Brain 的八個人把一篇論文扔上了 arXiv。

      標題狂得不像論文:《Attention Is All You Need》。

      九年過去了,這個標題成了 AI 史上最著名的七個單詞。基于它的 Transformer,撐起了 ChatGPT、Gemini、Claude、DeepSeek、萬億市值、一代人的焦慮。

      2026 年 3 月 27 日,又一篇論文悄悄上了 arXiv。標題只有七個單詞,格式一模一樣:

      Compression is all you need: Modeling Mathematics

      看到這個標題,任何做 AI 的人都會下意識笑一下——"又一個蹭熱度的"。點開作者一欄,笑容消失。

      Michael Freedman。

      這不是什么 ML 工程師。這是 1986 年菲爾茲獎得主,四維龐加萊猜想的證明者,過去二十年微軟 Station Q 的靈魂人物,當今在世的數學家里戲份最重的那一批。

      他在寫 AI?不是。他在告訴所有搞 AI 的人:你們一直在用的那個詞"壓縮",其實比你們想象的要深得多。

      這篇文章不是《Attention Is All You Need》那種工程突破。它是一封信——一位數學家,用他畢生訓練出來的直覺,回答了三個困擾人類上千年的問題:

      人類究竟是怎么構建數學知識的?

      人類做的數學,和形式化的"純邏輯數學",本質區別是什么?

      未來的人類數學家,到底該怎么和 AI 協同工作?

      他給出的答案,只有一個詞:壓縮。

      今天這篇文章,就把這封信翻譯給你。

      第一章:Freedman 是誰

      先說清楚為什么這個人開口說話,AI 圈必須聽。

      1981 年,三十歲的 Freedman 在加州大學圣地亞哥分校解決了四維龐加萊猜想——這個問題懸了 77 年。三維版本讓 Perelman 在 2006 年拿到菲爾茲獎(他拒絕了);五維以上早在 60 年代就被解決。唯獨四維——卡在最要命的那個維度——是 Freedman 攻下來的。

      1986 年,柏克萊,國際數學家大會。Freedman 領走了菲爾茲獎。

      1997 年,Freedman 做了一件數學家很少做的事——從學術界出走。微軟給他開了一個幾乎是為他量身定做的部門 Station Q,目標只有一個:用數學家的思路造拓撲量子計算機。他當了主任,一干就是二十五年。

      2023 年,他回到哈佛 CMSA(數學與應用中心),換了一個身份:思考 AI 和數學的關系。

      所以當 Freedman 這個人在 2026 年 3 月扔出一篇叫《Compression is all you need》的論文——這不是某個追熱點的研究員,這是一個一輩子在數學內部看世界的人,突然轉身跟所有人說:

      "我看清楚了一件事。你們要聽嗎?"

      第二章:一個讓所有人尷尬的事實

      Freedman 論文的切入點,是一個數學界人盡皆知、但幾乎沒人能解釋的尷尬事實。

      先建立兩個概念:

      • 形式數學(Formal Mathematics, FM)

        :所有合乎邏輯規則的推演。

      • 人類數學(Human Mathematics, HM)

        :人類真正寫下、收錄、引用的那部分數學。

      FM 的空間有多大?假設你有 n 個基礎符號,組合出來的"合法推演"是指數級——n 上百以后就超過了整個宇宙里的原子數。

      HM 呢?從歐幾里得到今天所有數學家加起來寫過的定理,約百萬量級。Lean 4 的 MathLib 收錄其中約 14 萬條。

      兩個數字并排寫

      FM:> 1080HM:~ 105中間隔了 75 個零。

      人類數學,是形式數學這個宇宙里一粒塵埃都不到的小角落。

      而且——為什么是這一粒?

      FM 里有無窮無盡的"合法但無聊"的定理。比如:"對任意整數 n,n + 0 = n","對任意整數 n,n + 0 + 0 = n","對任意整數 n,n + 0 + 0 + 0 = n"……每一條都合法,每一條都無意義。人類數學家從來不寫這些。

      一百年來這個問題有過無數個哲學回答:"美""簡潔""有用""深刻"——都是詞語的游戲。沒有一個是數學答案。

      直到 Freedman 2026 年給出了第一個能算的回答:

      因為 HM 是 FM 里那個"可壓縮"的子集。

      第三章:壓縮——先站在日常地面上

      Freedman 說的"壓縮"是什么意思?先別想數學,先想幾個你已經懂的例子。

      例子一:Huffman 編碼

      你家貓叫小花。照片里出現最多的動作是"睡覺"(4000 次),其次"吃飯"(3000)、"抓沙發"(2000)、"發呆"(1000)。

      固定 8 位編碼:80000 位。Huffman 編碼:"睡覺→0;吃飯→10;抓沙發→110;發呆→111"——19000 位。壓縮率 4 倍,沒有丟失任何信息。

      只要事物分布是不均勻的,就存在壓縮。

      例子二:牛頓三定律

      宇宙里每一秒都在發生無數次的運動:蘋果落地、月亮繞地、彈簧振動、子彈出膛、潮汐起落……你想記錄所有這些運動,需要多少信息?

      不需要。

      你只需要記住 F = m·a,外加兩條(慣性、反作用),就能重新生成上面所有運動。

      牛頓三定律是一個幾十字符的程序,它編碼了經典力學的全部。

      例子三:zip 文件

      "to be or not to be, that is the question; to be"——把反復出現的"to be"和"the"命名成 A、B,之后只寫名字。這是 LZ77 算法(zip / gzip / PNG 的底層),1977。

      例子四:大型語言模型

      喂整個互聯網給 LLM——幾萬億字、幾百萬小時文本。訓練完得到幾百億參數的模型(幾百 GB)。它能生成類似訓練集里的任何內容。

      這件事,用信息論的語言說叫:LLM 就是互聯網的一次有損壓縮。

      DeepMind 2023 年做了一件讓人血壓升高的事:他們把 Chinchilla 70B 當成一個通用壓縮器,用它去壓縮原始字節流——不僅是文本,還有從沒訓練過的圖像和音頻。結果:

      • 文本壓縮率:比 gzip 好很多

      • 圖像壓縮率:比 PNG 好

      • 音頻壓縮率:比 FLAC 好

      一個只訓練了語言的模型,居然能壓縮它從沒見過的圖像——因為它學到了"通用的世界結構"。


      從 Huffman 的字符編碼到 LLM 的幾百億參數——壓縮的顆粒度越來越粗,本質是同一個。

      任何"理解"的行為,本質都是找到更短的描述。這不是比喻。這是 Freedman 論文的出發點。

      第四章:Freedman 的建模——字符串和"宏"

      Freedman 說的第一件事:把數學推演當成字符串。你在黑板上寫證明,本質就是一串字符。所有"合法的證明字符串"排起來——就是 FM。

      但數學家從來不這樣寫。他會說:"設 f 在 [a, b] 上連續,則 f 一致連續。"

      "連續"是一段定義,展開約三行字符。"一致連續"是另一段,展開約五行。表面 20 個字,完全展開超過 100 個字符。繼續挖下去——一條"短句子"背后,是一棵很深的定義樹。

      Freedman 給這種"名字 → 一段長字符串"的約定起了個名字:宏(macro)。

      • "連續" = 一個宏

      • "一致連續" = 一個宏

      • "積分" = 一個宏(調用"極限""分割""黎曼和"的宏)

      • "勒貝格積分" = 一個宏(調用"測度""可測函數"的宏)

      • "黎曼-勒貝格引理" = 一個宏(調用以上所有)

      一條現代定理"完全展開"往往是億級字符。但數學家永遠只看最外層。

      數學家的工作,就是不斷造宏。一位數學家的一生,可能就干了一件事——看到了一個之前沒人壓縮過的模式,給它起了一個名字。

      高斯給"正態分布"起了名字。黎曼給"流形"起了名字。伽羅瓦給"群"起了名字。康托爾給"集合"起了名字。圖靈給"可計算性"起了名字。香農給"熵"起了名字。

      你今天學的所有數學,都是在站在前人造好的宏上。如果不能層層壓縮,人類根本學不動數學。

      第五章:$A_n$ vs $F_n$——兩種宇宙

      到這里一切都是直覺。Freedman 接下來要做的,是把這個直覺變成數學。

      他引入兩個代數對象(別緊張,用直覺講):

      A_n 像拼樂高

      你有一堆樂高積木——紅、藍、綠。紅拼藍上加綠,還是先綠再藍再紅——最后模型一樣。順序無關緊要,只在乎哪些積木。

      F_n 像編辮子

      先壓左繩再壓右繩,和先壓右再壓左——得到的辮子完全不一樣。順序決定一切。

      Freedman 的定理說了一件"漂亮得像魔法"的事:

      Freedman 的核心代數發現

      在 An 里,只要用 O(log n) 個宏(對數級稀疏),就能讓表達力指數級擴張。在 Fn 里,就算用 O(nk) 個宏(多項式級稠密),表達力也只能線性擴張。


      同樣的"造宏"策略,在兩種宇宙里結果天差地別——可壓縮性是結構性的。

      用大白話翻譯:

      • 在"樂高宇宙"里,造幾個宏頂一萬個宏——積木自由組合,宏之間也自由組合

      • 在"辮子宇宙"里,造再多宏也救不了你——順序是死的,每個組合都得單獨記

      這個對比為什么重要?因為它告訴我們:"可壓縮性"不是普世的,它只在特定結構里才存在。

      數學里的加法、乘法、集合并、函數復合——都是可交換或近似可交換的。所以數學是可壓縮的。

      那人類的語言呢?主語動詞賓語順序很要命——"狗咬人"和"人咬狗"不是一回事。所以語言壓縮程度遠低于數學。

      那生物學呢?DNA 順序至關重要——所以生物學長期是描述性的,沒有"F = m·a"級別的簡潔定律。

      那LLM 的參數空間呢?第八章再說。

      第六章:MathLib 實證——數據來說話

      光有理論不夠。Freedman 做了一件讓這篇論文從"哲學隨筆"升級成"硬科學"的事:把模型拿到真實的人類數學上驗證。

      測試對象:MathLib——Lean 4 的數學形式化庫,14 萬條定理,覆蓋代數、分析、拓撲、數論、范疇論……

      對每條定理,測三個量:

      • depth

        :嵌套深度

      • wrapped length

        :定義里的 token 數

      • unwrapped length

        :完全展開后的原始符號數

      結果 1:unwrapped length 隨 depth 指數爆炸。

      越深,完全展開后字符數按指數增長。到深度 10+,展開一條定理就要數千萬字符。

      結果 2:wrapped length 幾乎是常數。

      但數學家寫出來的定義,無論 depth 是 2 還是 12,長度幾乎不變——永遠就是幾十個 token。

      數學家從來不寫很長的定義。每當一個東西變復雜,數學家的第一反應是:先給它起個名字,然后用名字繼續。


      unwrapped 指數爆炸,wrapped 巋然不動——數學家每到一層就造一個宏,把復雜性壓回來。

      結果 3:數據完美符合 A_n,嚴重違反 F_n。

      Freedman 把兩種模型的理論曲線畫在同一張圖上。An 的指數擴張曲線嚴絲合縫地蓋在實測數據上。Fn 的線性曲線差了好幾個數量級。

      人類數學,生活在 An 模型預測的那個可壓縮子空間里。這不是隱喻,是可測量的事實。

      第七章:三個古老問題的答案

      現在可以回到開頭的三個問題了。Freedman 給的答案,每一個都短到令人震撼。

      問題一:人類究竟是怎么構建數學知識的?

      層層壓縮。每一代數學家看到前一代的成果,找出其中"可以起名字"的部分,造新的宏,然后在新宏之上繼續推演。整個數學史就是一部宏的積累史。

      歐幾里得給"點、線、面"起名字 → 笛卡爾給"坐標"起名字 → 牛頓給"導數"起名字 → 柯西給"極限"起名字 → 康托爾給"集合"起名字 → 希爾伯特給"空間"起名字 → 格羅滕迪克給"概形"起名字……每一層,都比上一層壓縮了更多。

      問題二:人類數學和形式數學的本質區別是什么?

      可壓縮 vs 不可壓縮。FM 里大部分定理是"合法但無聊的"——沒有結構、不能被起名字、沒法進一步用。HM 是 FM 里那個碰巧活在 An-like 子空間的小角落。

      人類數學之所以是"人類"的,恰恰是因為人類的認知帶寬極其有限——我們只能在那個可壓縮的子空間里活動。而那個子空間的存在,是宇宙給我們的禮物——如果它不存在,人類壓根不會有數學。

      問題三:未來人類數學家怎么和 AI 協同?

      AI 的長處是在 FM 的巨大空間里并行搜索——因為它有我們沒有的帶寬。人類的長處是判斷哪些地方"值得起名字"——因為我們有五萬年的語言和抽象訓練。

      這不是 AI 取代數學家,也不是數學家訓練 AI。是兩種不同認知帶寬的分工協作。

      Freedman 還具體建議:在 MathLib 的依賴圖上跑 PageRank + 壓縮度分析。一條定理如果被很多下游定理引用(PageRank 高),又能大幅壓縮下游內容(壓縮度高),那它就是核心定理——值得人類數學家投入,值得 AI 優先搜索。

      這把"什么是重要的數學"從一個主觀判斷,變成了一個可以算的量。

      第八章:這對 AI 意味著什么

      第一個含義:AI 做數學的路線圖,清晰了。

      2024 年以來:DeepMind 的 AlphaProof 在 IMO 上拿銀牌;陶哲軒公開宣布 Lean 4 是工作流的一部分;DeepMind 的 FunSearch 在組合數學里發現了新定理;專門的數學 LLM 涌現。

      所有這些,Freedman 的框架都給了同一個解釋——它們在 FM 的巨大空間里搜索,但它們能成功的地方,恰恰是 HM 已經壓縮過的地方。

      AI 的數學能力,是站在人類兩千年"造宏"的結果之上的。脫離了 MathLib 里那 14 萬條定理,AI 在純 FM 里就像撒哈拉沙漠里找一粒米。

      下一步的突破,不會來自于讓 AI 在 FM 里搜索得更快——而是讓 AI 學會"自己造宏"。

      第二個含義:LLM 是什么?答案變清楚了。

      DeepMind 那篇《Language Modeling Is Compression》(2023)給出了第一層答案:下一個 token 預測 = 算術編碼下的壓縮率最大化。訓練時的 cross-entropy loss,嚴格來講就是"對訓練集的壓縮率"的負對數。loss 越低,壓縮率越高,理解越深——不是比喻,是數學恒等。

      但 Freedman 給出了第二層答案:LLM 會用宏,但不會造宏。

      LLM 訓練時吃了整個互聯網——里面充滿了人類兩千年造出來的宏("微積分""進化論""民主""熵""注意力"……)。LLM 學會了在這些宏之間自如穿梭——所以它在"單步推理"上驚艷。

      但在"長證明"上——它崩潰。一條需要造新宏的證明,LLM 很難穩定完成。因為它沒有在訓練中見過這個宏,它不會從零定義一個新概念然后在新概念上繼續推演。

      這正好是 Freedman 說的"層層壓縮"里的"層"——每一層都是一次新的命名。LLM 在一層內表現驚艷,跨層就斷。

      第三個含義:為什么 LLM 的 scaling 可能有上限。

      如果智能本質是"層層壓縮"——造宏、在宏上造宏——那么單純把模型變大,增加的是單層的帶寬,不是層數。

      一個更大的 LLM,能用更精細的宏、更大的詞表、更長的上下文。但它造新宏的能力,沒有因為變大而獲得質變。

      LLM 是一個宏使用器。真正的智能是一個宏生成器。

      —— 這呼應了《世界模型之爭》里 LeCun / 李飛飛 vs Ilya 那場口水戰。Ilya 說的是"用宏"的上限還沒到,LeCun 說的是"造宏"的能力根本還沒開始。

      第八章半:數學之外——詩、畫、樂也是壓縮

      Freedman 的論文從頭到尾只談數學。但如果"壓縮即理解"真的是宇宙級的事實,它就不該只在數學里成立。

      我寫到這里的時候,腦子里跳出來的是王維。

      大漠孤煙直,長河落日圓。

      十個字。沒有修飾、沒有形容詞、沒有一個"情"字。但你讀完這十個字,眼前立刻浮起一張畫——遼闊、空曠、孤直的一縷煙、渾圓的落日壓在地平線上。緊接著,是一股你說不出但確實感到的蒼涼和孤寂。

      這十個字背后,藏著多少信息?視覺上是一幅完整的西北邊塞畫面;幾何上是"直"與"圓"的極簡構圖對比,一豎一圓撐起整個空間;時間是日落的那個瞬間,一天將盡;心境是使者獨自遠行的孤獨、遠離故土的悵然;背景是盛唐邊塞詩的整套意象系統。用散文來復述,上千字都說不完。王維用十個字,把它壓縮成了一個可以在你腦中重新展開的種子。

      這和 Freedman 論文里講的"宏"是同一件事。"大漠""孤煙""長河""落日",每一個都是一個宏——它調用了中文文學兩千年積累的意象、畫面、情緒。王維的天才不是"寫得漂亮",而是挑出了那四個展開之后信息量最大的宏,把它們擺在一起。

      音樂是另一個面孔。貝多芬第五交響曲的開頭只有四個音:ta-ta-ta-tum。但這四個音在整首交響曲里被變形、重組、上行、下行、反轉了幾百次。一首四十分鐘的交響曲,本質上是從一個四音動機里壓出來的——這就是作曲家說的"主題與變奏",用 Freedman 的話講就是:造一個宏,然后在宏的空間里自由展開。

      繪畫也是。齊白石畫蝦,不畫水、不畫水草,只畫蝦——你看到的是蝦,感受到的卻是整個池塘。留白不是"沒畫",是讓觀者自己在心里展開那一大片信息。八大山人一只翻白眼的鳥,你讀出了整個明末遺民的心境。

      為什么所有藝術都指向同一件事?我的猜想是這樣的:

      人類的大腦,能同時握住的"維度"是有限的。幾千個腦細胞組成的注意力,在某一刻只能在一個相對低維的空間里做關聯。

      所以我們分科——有人專心在數學的維度里找可壓縮的結構(幾何、群、流形),有人專心在語言的維度里找(意象、節奏、雙關),有人專心在聲音的維度里找(和聲、調性、動機),有人專心在視覺的維度里找(構圖、比例、留白)。不是因為這些領域彼此無關,而是因為一個人扛不動所有維度。我們用自己天生敏感的那一條通道去壓縮世界,彼此隔行如隔山——其實隔的不是山,是我們自己的認知帶寬。

      而 LLM 第一次給了"把維度連起來"這件事一個物理基礎。

      幾千億參數的模型,其內部表示空間的維度,遠遠超過任何一個人類個體能同時調用的維度。于是很多在我們看來"不相關"的東西——一首宋詞、一段巴赫的賦格、一個偏微分方程、一張水墨畫——在那個高維空間里,開始出現彼此對齊的方向。

      LLM 的涌現,不是神秘的玄學,而是:當壓縮維度大到一定程度,原本散落在不同學科的宏,開始互相調用。"熵"這個宏,在物理、信息論、經濟學、心理學里,突然變成同一個東西;"對稱"這個宏,在群論、晶體、音樂、詩歌里,突然變成同一個東西。這大概就是跨域泛化,就是所謂"世界模型"的雛形。

      所以,數學、詩、畫、樂,不是四件不同的事。它們是同一件事在四種媒介上的投影。

      王維不是"詩人而已",他是一個在語言維度上找可壓縮結構的人。歐拉不是"數學家而已",他是一個在符號維度上找可壓縮結構的人。貝多芬不是"作曲家而已",他是一個在時間維度上找可壓縮結構的人。齊白石不是"畫家而已",他是一個在視覺維度上找可壓縮結構的人。

      殊途同歸。萬物為一。

      我們每個普通人,只是在自己最敏感的那條通道里,做著同一件事——把復雜的世界壓成一個自己能握住的短描述,然后靠這個短描述活下去。

      Freedman 用代數模型證明了:數學之所以存在,是因為它活在一個 A_n-like 的可壓縮子空間里。我想補一句他沒說的:人類文明之所以存在,是因為它活在無數個可壓縮子空間的并集里。數學只是其中最干凈的那一個,但不是唯一的一個。

      第九章:四種概率觀的收束

      寫到這里,忍不住回頭看一眼這一年來博客走過的路。

      一條主線貫穿了四篇文章——每一篇都在用不同的視角看同一個數學對象 P(x):

      視角

      P(x) 是什么

      核心論述

      代表人物

      貝葉斯

      信念

      證據到了就更新

      Bayes / Jaynes

      無知

      熵是無知的度量

      Boltzmann / Shannon

      量子 QBism

      實在

      概率是世界本身的狀態

      Born / Fuchs

      壓縮(本文)

      理解

      -log P 就是描述長度

      Shannon / Freedman

      這四個視角指向同一個公式:

      L(x) = ? log P(x)
      • 貝葉斯派

        :L(x) 是"意外",驅動信念更新

      • 統計力學派

        :L(x) 是微觀狀態對熵的貢獻

      • QBism 派

        :L(x) 是測量結果在下次下注時的權重

      • 壓縮派

        :L(x) 是這個事件在最優編碼里占的字符數

      它們是同一個數學對象,從四個不同的哲學位置看。

      Freedman 這篇論文的意義是——他把這個公式從"一個信息論工具"升級成了"數學本身的基礎"。數學之所以能存在,是因為宇宙可壓縮;人類之所以能做數學,是因為我們活在 An 那樣一個低描述長度的結構里。

      第十章:壓縮留下的三個直覺

      一、所有"理解"都是壓縮。

      你理解了一個現象,意味著你能用比原始數據短得多的描述重新生成它。做到這一點,你就理解了;做不到,你就只是在記憶。

      二、數學獨特之處,是它能做"嵌套的壓縮"。

      不止一次壓縮,而是"在壓縮之上再壓縮"。每一代數學家把上一代結果打包成一個名字,然后在那個名字上繼續工作。這個遞歸過程,是其他學科沒有(或者沒有這么強的)。

      三、數學、詩、畫、樂,是同一件事在四種媒介上的投影。

      每個領域的大師,都是在自己那條通道里做可壓縮子空間的挖掘者。王維的"大漠孤煙直,長河落日圓"和歐拉的 e^(iπ)+1=0,本質同構——都是把龐大的信息壓成一顆能在別人腦中重新展開的種子。我們分科,不是因為世界是割裂的,是因為一個人的認知帶寬不夠。LLM 第一次讓這些分科的宏在同一個高維空間里開始互相調用——這就是所謂的涌現和泛化。

      四、AI 要做真正的數學(和深度智能任務),必須學會"造宏"而不只是"用宏"。

      "用宏"是工程問題——擴大上下文、提高精度、疊更多層。"造宏"是認知問題——從混亂現象中看出一個可以命名的模式。

      目前所有 LLM 的 scaling 都在"用宏"的層面上。真正的突破——不管它叫 AGI、叫 JEPA、叫世界模型、還是叫別的——一定出現在 AI 開始自己造宏的那一天。

      尾聲:你在讀這篇文章,就是在壓縮

      Freedman 寫完這篇論文大概花了一年。我寫這篇文章帶上查資料畫圖,大概八小時。你讀它,大概二十分鐘。

      一年 → 八小時 → 二十分鐘。

      每一次壓縮,都有損失。 但每一次壓縮,也都有獲得——你能在二十分鐘里帶走一個新的看世界的方式。

      你讀完過幾天,記得的大概只有幾個關鍵詞:壓縮、宏、樂高和辮子、MathLib、造宏而不是用宏。

      這就是又一次壓縮。

      如果這幾個關鍵詞以后在你遇到別的問題時——學一個新領域、讀一篇論文、訓練自己的模型、帶一個學生、甚至只是想一件事——還能被你調用,那說明它們在你腦子里成了新的宏。

      你也在做 Freedman 說的那件事。

      數學家、程序員、作家、老師、學生——所有"用頭腦工作"的人,每天都在干同一件事:把世界的復雜,壓進一個可以用的短名字。

      下一次有人問你"什么是智能"的時候——你可以換一種回答了。

      不是"處理信息"。不是"模式識別"。不是"深度學習"。是:

      找到更短的描述。—— 壓縮,即是全部。

      下一篇,回到《看見物理》系列的最后一站——對稱性。諾特定理、楊振寧、宇宙的骨架。對稱性和壓縮是一對孿生姐妹——有對稱就有守恒,有守恒就有可壓縮的描述。

      —— 所以,實際上我們還在同一個故事里。

      本文首發于「AI 學習筆記」博客:https://Jason-Azure.github.io/ai-blog/posts/compression-is-all-you-need/微信公眾號:AI-lab學習筆記參考:Freedman, Compression is all you need: Modeling Mathematics, arXiv 2603.20396 (2026-03)

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      研究200個婚外情案例后發現_敢和婚外男人偷情的女人,都有以下兩個“厲害之處”

      研究200個婚外情案例后發現_敢和婚外男人偷情的女人,都有以下兩個“厲害之處”

      心理觀察局
      2026-05-08 09:11:09
      伊朗警告阿聯酋與美以保持距離,內塔尼亞胡打電話表示支持

      伊朗警告阿聯酋與美以保持距離,內塔尼亞胡打電話表示支持

      Ck的蜜糖
      2026-05-09 16:32:31
      空腹抽血,喝水算不算破壞?很多人意外!檢驗科醫生權威解答

      空腹抽血,喝水算不算破壞?很多人意外!檢驗科醫生權威解答

      環球網資訊
      2026-05-06 13:46:09
      布拉德利?庫珀雨天攜女出街 父愛滿滿

      布拉德利?庫珀雨天攜女出街 父愛滿滿

      述家娛記
      2026-05-09 10:48:03
      美公布大量絕密UFO影像!涉及飛碟外星人,從60年代到去年的都有!

      美公布大量絕密UFO影像!涉及飛碟外星人,從60年代到去年的都有!

      英國報姐
      2026-05-09 21:10:44
      蔣萬安被問懵:不認中國人身份,憑何遷兩蔣靈柩回大陸?

      蔣萬安被問懵:不認中國人身份,憑何遷兩蔣靈柩回大陸?

      娛樂的宅急便
      2026-05-08 13:39:15
      比安德森還強!羅馬諾曝光曼聯夢想目標,談判即將開啟

      比安德森還強!羅馬諾曝光曼聯夢想目標,談判即將開啟

      瀾歸序
      2026-05-09 06:20:24
      下午5點!足協做正確決定,恭喜國足,恭喜邵佳一,球迷紛紛點贊

      下午5點!足協做正確決定,恭喜國足,恭喜邵佳一,球迷紛紛點贊

      球場新視角1號
      2026-05-09 17:14:00
      78歲連路都走不穩還開演唱會,全網罵聲一片,她卻揚言回饋粉絲

      78歲連路都走不穩還開演唱會,全網罵聲一片,她卻揚言回饋粉絲

      二胡的歲月如歌
      2026-04-14 18:43:51
      5.10凌晨世乒賽:張本智和太囂張 3-1逆轉林昀儒 掀衣服高舉NO1慶

      5.10凌晨世乒賽:張本智和太囂張 3-1逆轉林昀儒 掀衣服高舉NO1慶

      越嶺尋蹤
      2026-05-10 01:04:00
      扛不住了!日媒:中國反制影響越來越大,高市算計與中國年底見面

      扛不住了!日媒:中國反制影響越來越大,高市算計與中國年底見面

      共工之錨
      2026-05-09 00:12:49
      為什么小診所開的藥能好那么快?網友高贊回答太真實了!

      為什么小診所開的藥能好那么快?網友高贊回答太真實了!

      另子維愛讀史
      2026-05-09 18:11:34
      動物女星賣身干爹的瓜

      動物女星賣身干爹的瓜

      十錘星人
      2026-05-08 23:43:48
      14支球隊鎖定下賽季歐冠名額:巴薩、拜仁、皇馬、阿森納在列

      14支球隊鎖定下賽季歐冠名額:巴薩、拜仁、皇馬、阿森納在列

      懂球帝
      2026-05-09 16:43:08
      痛悼!經全力搶救無效,何同原不幸離世,年僅58歲

      痛悼!經全力搶救無效,何同原不幸離世,年僅58歲

      阿芒娛樂說
      2026-05-09 17:07:58
      拋夫棄子嫁富商,楊娜離婚34載后下場凄涼

      拋夫棄子嫁富商,楊娜離婚34載后下場凄涼

      夸大其詞的說
      2026-05-10 01:16:23
      成都蓉城3-0河南,賽后評分出爐:不是韋世豪第1,蓉城32號排第1

      成都蓉城3-0河南,賽后評分出爐:不是韋世豪第1,蓉城32號排第1

      俯身沖頂
      2026-05-09 21:58:30
      許利民信心十足!球迷:已經忽視了廣東隊

      許利民信心十足!球迷:已經忽視了廣東隊

      體育哲人
      2026-05-09 17:20:59
      打起來了!特朗普不宣而戰,美軍發起斬首行動,伊朗或再次上當

      打起來了!特朗普不宣而戰,美軍發起斬首行動,伊朗或再次上當

      花謝依然美
      2026-05-09 20:25:47
      高芙戲劇性逆轉驚險闖進第四輪,小布贏下中國德比挑戰賽再進決賽

      高芙戲劇性逆轉驚險闖進第四輪,小布贏下中國德比挑戰賽再進決賽

      網球之家
      2026-05-09 22:38:24
      2026-05-10 01:59:00
      新浪財經 incentive-icons
      新浪財經
      新浪財經是一家創建于1999年8月的財經平臺
      3160176文章數 7276關注度
      往期回顧 全部

      科技要聞

      美國政府強力下場 蘋果英特爾達成代工協議

      頭條要聞

      演員文章面館大火后又開酒吧 多位明星到場母親也現身

      頭條要聞

      演員文章面館大火后又開酒吧 多位明星到場母親也現身

      體育要聞

      成立128年后,這支升班馬首奪頂級聯賽冠軍

      娛樂要聞

      50歲趙薇臉頰凹陷滄桑得認不出!

      財經要聞

      多地號召,公職人員帶頭繳納物業費

      汽車要聞

      軸距加長/智駕拉滿 阿維塔07L定位大五座SUV

      態度原創

      藝術
      手機
      本地
      親子
      軍事航空

      藝術要聞

      深圳終究失去“中國第一高樓”,華潤接手地塊!

      手機要聞

      華為Mate 90首發!鴻蒙7定檔6月:和iOS安卓三分天下

      本地新聞

      用蘇繡的方式,打開江西婺源

      親子要聞

      高能量、有氣場的孩子,媽媽只做3件小事

      軍事要聞

      美伊突然再次交火 伊朗外長:戰爭準備程度是1000%

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 日韩在线成年视频人网站观看| AV一本久道久久波多野结衣| 亚洲天堂精品日本| 国产精品海角视频| 另类小说久久| 国产无套精品一区二区三区| 国产精品一在线观看| 久久精品国产精品第一区| 亚洲成人有码免费在线| 韩国午夜理伦三级| 亚洲第一国产综合| 夜夜揉揉日日人人视频| 色偷偷色噜噜狠狠网站年轻人| 国产精品精品免费| 初尝人妻少妇中文字幕 | 蜜桃网站视频在线观看| 国产热A欧美热A在线视频| 欧美在线综合视频| 国产熟女肥臀精品国产馆乱| 国产VA网站| 野花香电视剧免费观看全集高清播放 | 国产精品区网红主播在线观看| 国产黄色看三级三级三级| 人妻人久久精品中文字幕| 天天操夜夜操| 久久人妻AV无码一区二区| 蜜桃视频在线网站免费看| 精品欧洲av无码一区二区| 国产精品久久国产精麻豆99网站| A片AV| 亚洲欧美偷拍另类a∨| 乱日视频| 九九热视频在线免费观看| 国产成人啪精品视频网站| 成人性生交大片免费卡看| 国产乱子伦一区二区=| 图片区小说区亚洲欧美自拍| 日本午夜精品一区二区三区电影| 91精品人妻一区二区三区蜜桃| 尹人香蕉久久99天天拍| 国内精品视频一区二区三区 |