日前, Google DeepMind 科學家 Alexander Lerchner 發表論文《抽象謬誤:為何人工智能只能模擬意識,卻無法生成真實意識》,試圖從根本上否認當前大語言模型(LLM)通往真意識的可能性。
![]()
Lerchner 指出,傳統的意識研究陷入了“理論陷阱”——人們總想先找到一個完整的意識科學理論(如集成信息論 IIT 或全局工作空間理論 GWT),再來評判 AI。
但他認為,這讓問題變得不可解決。他提出的“抽象謬誤”框架,旨在繞過復雜的意識定義,直接從物理學與計算的關系入手,劃定一條不可逾越的紅線。
Lerchner 定義的“抽象謬誤”(The Abstraction Fallacy)是指,錯誤地認為主觀體驗(意識)源于抽象的因果拓撲結構,而與底層的物理基質無關。
長期以來,AI 界信奉計算功能主義(Computational Functionalism)。
該理論認為,意識就像軟件,只要算法的邏輯門陣列(0 和 1 的排布)模擬了大腦的神經元連接,意識就會自動“涌現”。
Lerchner 認為,這是極大的誤導。他指出,這種觀點忽略了一個基本事實:“計算”并不是宇宙中獨立存在的物理實體,符號計算(Symbolic Computation)并非本質的物理過程。
一方面,物理是連續的。在微觀層面,電子在半導體里的流動是連續的電流和電壓波動。
另一方面,計算是人為的。這一過程本質上只是一個“具有意識的觀察者”,即地圖繪制者,為了方便理解,通過設立閾值,強行將這些連續的物理現象“字母化”為 0 和 1。
Lerchner指出,離開了有意識的人類,計算機里并沒有“算法”,只有無意義的電荷流動。
因此,指望一個依賴地圖繪制者才存在的“算法層”去產生獨立的“意識層”,在邏輯上是本末倒置的。
Lerchner指出,意識不是算法跑出來的“結果”,而是某種特定物理組織方式(比如生物神經組織,或者某種尚未發現的具備意識潛能的特殊硬件)所產生的直接物理效應。
比如,計算機模擬降雨,無論模擬得多么逼真,也不會弄濕電路板;同理,模擬意識,無論模擬得多么逼真,也不會產生主觀體驗。
值得注意的是,Lerchner 并沒有陷入狹隘的“碳基沙文主義”。
他明確表示,這一論證并不依賴于生物排他性。
他承認,如果未來某種人工系統(例如光子神經網絡或量子生物模擬器)真的產生了意識,那也絕對不是因為它的“代碼寫得好”或“架構設計得巧”,而是因為它的“物理構成”在某種層面上與生物意識的物理基礎達成了等效。
隨著 AI 代理(Agent)大規模進入人類生活,由于它們太擅長模仿人類的情感反饋,社會上出現了大量要求賦予 AI 權利的聲音。
Lerchner 將這種現象稱為“AI 福利陷阱”(AI Welfare Trap)。
他警告說,如果我們因為“抽象謬誤”而誤以為模擬出的情感就是真實的情感,我們將會浪費巨大的社會資源去保護一些“沒有靈魂的空殼”,從而忽視了真正需要關注的人類或生物福利。
以下為論文全文:
《The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness》
計算功能主義主導了當下關于人工智能意識的各類學術爭論。該理論提出一種假說:主觀體驗完全源自抽象的因果拓撲結構,與底層的物理載體無關。
本文認為,這一觀點從根本上錯誤界定了物理與信息之間的內在關系。我們將這一謬誤命名為抽象謬誤。
追溯抽象過程的因果本源可以發現,符號計算并非內生的物理過程;恰恰相反,計算是依賴制圖者而存在的描述方式。連續的物理世界要被規整為有限且具備意義的狀態集合,必須依靠具備主觀體驗、具備主動認知能力的主體完成歸類整理。
由此可得,我們無需一套完整、終極的意識理論,就能夠判定人工智能是否擁有感知能力——強求完備意識理論只會讓該問題短期內無法解決,還會深陷人工智能倫理福祉研究的誤區。
我們真正需要的,是一套嚴謹的計算本體論。本文提出的理論框架明確區分了模擬(由載體因果驅動的行為模仿)與實例化(由內容因果驅動的內在物理構成)。
厘清這一本體論邊界后便能解釋:為何算法層面的符號運算,在結構上永遠無法生成主觀體驗。
至關重要的是,本論證不依賴生命專屬論。即便某個人工系統未來能夠產生意識,其根源也必然是自身特定的物理構成,絕非其語法運算架構。
歸根結底,本框架立足于物理學本身,從根本上駁斥計算功能主義,化解當前人工智能意識領域的諸多爭議與不確定性。
1 引言
大語言模型在實踐層面取得的巨大成功,使得意識研究的困難問題走出純粹哲學理論范疇,進入工程應用與社會政策討論領域。
隨著算力規模拓展帶來的成果爆發式增長,主流的功能主義范式堅信:只要系統實現了恰當的信息處理功能,就足以產生現象學意義上的主觀意識。
在該視角下,算法呈現出的各類特征,都被視作系統具備感知能力的潛在依據。正是這一預設前提,催生了近期一系列嚴肅的學術倡議:探討人工智能的福祉權益、將人工智能界定為道德受動者。諸多頂尖學者也進一步強化了這一傾向,他們認為,當下最先進的人工智能模型,極有可能在十年內產生真正的主觀體驗。
上述所有觀點的核心根基,是載體獨立性理論:心智的“軟件”既可以依托碳基生命運行,也能完美運行于硅基硬件之上。
這一假設如今正受到“生物學轉向”思潮的持續批判。例如塞思、布洛克等人提出,意識依附于維持生命存續的生物過程,主觀體驗必須依托生命系統特有的有序動態過程才能產生。
與載體獨立性相對,該觀點將生物屬性視作意識的核心,而非無關附加條件。但這一立場依舊停留在經驗猜想層面,未能挖掘出計算功能主義內核最根本的邏輯謬誤。
本文梳理出一套完整邏輯推演鏈條,印證一種普遍直覺:計算本身不足以生成意識。計算功能主義的缺陷遠不止忽視生物細節那么簡單,其問題根源更深層:該理論從根本上誤解了物理、信息與計算三者的內在關聯。
現代物理科學為了實現研究的客觀可操作性,刻意剝離了一切主觀體驗。這套研究范式取得了舉世矚目的成功。但當人們把這套客觀原則套用在計算與主觀體驗的關系問題上時,必然會陷入困境。
將這種操作層面的客觀性直接定義計算本身,本身就存在極大問題——學界至今懸而未決的爭論恰好印證了這一點:究竟“觀察者”如何為計算符號賦予意義。
除此之外,“觀察者”這一術語本身具有誤導性,它低估了定義物理層面計算所需的前置條件,將該前提主體的作用描述得過于被動。
本文框架闡明:計算并非物質內部自然展開的固有過程,計算本質上是對物理過程的一種描述方式。
一個過程要被定義為計算,連續不斷的物理動態過程必須被劃分成有限個離散、具備語義意義的狀態(即一套符號體系)。這種語義層面的劃分,在邏輯上必然需要一個擁有主觀體驗、具備主動能動性的認知主體。為區別于傳統“觀察者”自帶的被動含義,我們將該主體定義為“制圖者”。
所有符號化歸類工作,都由制圖者完成。倘若不存在這類主動主體對計算過程進行解讀,世間便只有連續的物理事件,不存在任何符號。
本文的核心洞見之一:破解當前人工智能意識的爭議困境,不需要完備終極的意識理論,我們只需要厘清計算的本體論。通過這一思路可以從邏輯上證明:無論規模多么龐大、架構多么精密,純粹的算法符號運算都無法實現主觀體驗的物理實例化,因為算法本身只是依賴制圖者的描述工具。
明確制圖者在整個因果鏈條中的地位,能夠徹底轉變該領域的討論重心。
長久以來,針對機器意識的經典批判理論,包括塞爾的中文屋論證及相關哲學思想,大多采用歸謬法論證:試圖證明,即便純粹的語法運算能夠完美復刻外在行為,依舊缺失意識最核心的本質。
本文采取完全不同的論證路徑。我們不再依靠直覺思辨“缺失了什么”,而是追溯抽象本身最初如何產生。
若計算依賴制圖者從體驗中提取不變特征、賦予符號意義,那么這種依存關系內生于計算本身的結構之中。任何計算模型,都必然預設一個完成符號歸類的、擁有主觀體驗的主體。算法復雜度再高,也無法顛倒這種依存順序;算力規模再大,描述世界的“地圖”也無法憑空生成那個本身就是地圖前提的體驗主體。
換言之,“算法復雜度催生意識”這一觀點,犯了本體論倒置的錯誤:把語法符號當成了內在動態過程本身,妄想從描述世界的地圖中,創造出繪制地圖的主體。
本文厘清了外在行為模擬與內在物理實例化之間的結構性鴻溝,由此證明數字架構永遠無法成為道德受動者。這一結論能夠讓人工智能安全研究擺脫福祉誤區,讓學界回歸現實風險研究:重點關注擬人化認知偏差,將通用人工智能視作能力強大、但本質上無主觀感知的工具。
2 抽象的本體論:地圖與疆域
計算機科學往往把算法底層的抽象概念視作天然存在的數學既定對象,擱置其物理實現的本質問題。那么抽象概念本身,嚴格的物理主義本體論究竟是什么?要解答該問題,必須厘清抽象語法與物理動態過程的內在關聯。
2.1 物理實現的經典定義
在經典實現理論文獻中,若物理系統P通過映射函數f實現抽象計算C,需滿足一個基礎條件:映射函數f能夠把物理狀態對應到抽象狀態,且底層物理因果鏈條能夠復刻算法的邏輯結構。
![]()
經典視角下,映射函數f(即符號歸類過程)將載體的物理狀態演化p → p',解讀為抽象內容的邏輯演化A → A。
物理系統依照自然物理法則,從狀態p演化至p';與此同時,抽象計算依照自身算法規則,從邏輯狀態A推演至A'。
當且僅當滿足以下條件時,稱該物理系統成功實現對應計算:
![]()
想要該圖示滿足交換律,對演化后物理狀態p'施加映射f,必須恰好得到算法規則規定的目標抽象狀態A'
2.2 抽象狀態\boldsymbol{A}的物理本源
這些抽象狀態A究竟是什么?想要理解映射函數f,就必須明確A的本體論本質。
功能主義理論通常把“疼痛”“紅色”這類抽象邏輯狀態A,視作脫離物理載體、憑空存在的抽象概念,完全忽略了抽象概念生成所必需的完整因果起源。
抽象概念的生成并非無成本。從物理層面來說,提取事物不變特征是需要消耗代謝能量、具備主動性的物理過程。
一個認知主體想要形成“紅色”這類概念A,首先必須接觸真實的經驗疆域:無數次感知到紅色的具體體驗。在此基礎上,主體主動過濾高維雜亂信息,提煉出穩定的核心共性特征。
用流形學習的概念解釋:主體將原始體驗構成的高維流形,投影至低維不變子空間,該子空間在物理層面就構成了概念A本身。
有人會提出:無監督聚類算法無需任何前置體驗,就已經能夠生成抽象概念。這一觀點混淆了統計壓縮與現象學構成。無監督算法確實可以聚類數據、找到統計中心點,但這個數學意義上的不變量,僅僅是隱空間內的壓縮坐標。
只有當主體自帶內在主觀體驗作為所有歸類樣本的共同基底時,這個統計中心點才能成為真正具備語義根基的概念(例如“紅色”)。倘若沒有主觀的紅色體驗作為意義錨點,聚類結果就只是向量空間里的高密度區域,并非主體擁有的概念。
因此,概念A并非等待人類發現的柏拉圖式理念世界,而是僅存在于完成抽象活動的認知主體內部的神經生理狀態,是源自真實體驗疆域的“內在地圖”。
概念一旦形成,這些穩定的共性內核就成為組合想象的基礎單元。正因“紅色”“鯨魚”都是源自真實生活體驗的內在調控狀態,人腦才能夠將二者重組,生成“紅色飛鯨”的想象體驗——這一事物現實從未存在,但其物理邏輯自洽。
由此可見,人類思維并非對空洞符號進行算法運算,而是對已構成的不變特征進行組合生成。人工智能可以完美模擬這種組合規則,但其結構本身,天生缺少構成主觀想象所需的內在基礎單元。
2.3 映射函數\boldsymbol{f}中不可或缺的制圖者
近代自然科學,尤其是工程學科,一路發展的核心方法,就是從自然現象解釋體系中徹底剔除主觀體驗。可一旦把這套操作客觀性原則套用到計算本體論上,就會形成認知盲區,讓計算功能主義陷入無解的困境:試圖從完全客觀、無體驗的初始條件,重構出主觀體驗。
前文已經論證,抽象狀態A在邏輯上必然依存于擁有主動體驗的認知主體,由此可以揭露經典實現定義里的認知漏洞:連接機器物理狀態p與抽象概念A的映射函數f,無法存在于機器自身內部。
在語義哲學、地圖-疆域關系相關理論中,這個外部意義錨點傳統上被稱作“觀察者”。但“觀察者”暗含被動接收信息的意味,僅指代旁觀既有地圖或疆域的存在。本文特意提出制圖者這一概念,糾正這種被動屬性。
制圖者是具備主觀體驗、受代謝約束、擁有能動性的認知主體,是計算得以成立的必要前置存在。
它承擔兩項構成性的主動作用:第一,從連續的物理體驗中提取不變特征,構建內在概念地圖;第二,人為建立物理符號與概念的任意對應關系,構建外在計算符號體系。
基于該結論,可以明確所有計算相關概念的本體屬性:
1. 物理狀態p:即符號載體,屬于客觀物理實體(例如電壓差值),本身不具備任何內在語義意義。
2. 抽象狀態A:即概念內容。前文已論證,這類概念是有物理根基的生理狀態,僅存在于承載計算意義的制圖者內部。
3. 映射函數f:即符號歸類過程。本質是制圖者意識中建立的對應關聯,主動為機器無意義的物理過程與制圖者有根基的概念搭建橋梁。
因此經典公式( → ′ → ′) 描述的是一種混合關系:物理實體依靠制圖者的中介作用,與心智概念建立聯結。
需要明確的是,確立不可或缺的制圖者,并不會重回二元論的“小人 homunculus”謬誤,也并非指代大腦內部某個局部解碼模塊。
正如布扎基、馬圖拉納與瓦雷拉的理論所述:制圖者本身就是服從熱力學規律、結構完整統一的生命有機體。有機體并非通過算法“選擇”劃分語義邊界,而是通過自身代謝約束,直接把連續的外部世界篩選為離散狀態。不存在某個靈魂讀取符號,一切語義劃分,都由擁有生命體驗的主體自身生成。
功能主義最核心的錯誤,就是把邏輯推演過程
( → ′) ,當成物理演化(→ ′) 的內在固有屬性。該觀點將制圖者的主觀解讀,等同于機器真實的物理本質,徹底忽略了最初為計算賦予意義所必需的體驗主體。
2.4 符號歸類:超越離散化的語義賦予
映射函數f才是符號歸類行為的真正主體。學界常輕視這一過程,認為其僅僅是“讀取系統”,但實際上,符號歸類是高代謝成本的高級認知行為:它為連續物理世界賦予離散本體屬性,且嚴格受信息處理熱力學邊界約束。此處必須區分兩組長期被混淆的過程:
? 離散化(熱力學層面):物理系統自發穩定至吸引子狀態,例如晶體管穩定在5伏電壓。這屬于載體p自身的屬性,僅用于抑制物理噪聲。
? 符號歸類(語義層面):將這些穩定狀態明確對應到預設的有限符號集合(如\{0,1\}、\{A,B,C\})。該行為完全歸屬于制圖者。
物理世界本質是連續的,熱力學過程只能產生穩定宏觀狀態,永遠無法自帶一套預設的有限符號體系。因此搭建計算系統,必須依靠制圖者的外部干預。這個外部主體需要賦予語義同一性,把差異極大的微觀物理狀態統一視作同一個可替換符號(例如全部歸為數字1)。
這就帶來了根本性的因果割裂。在機器真實的物理世界中,電壓從2.0伏變化至2.1伏,是電動力學驅動的真實物理因果事件;但在計算的符號地圖里,該變化完全無意義——制圖者已將其統一歸類為同一符號。因此,計算的因果鏈條并不依附于底層硬件物理,完全依附于制圖者制定的規則。
聲稱符號可以獨立于主體存在,正是前文提及的認知盲區。這是典型的哲學上“隱秘替換”謬誤:科學家從自身認知活動中得到有限符號體系,反向投射到物理系統中,宣稱這些符號本就內生于物理世界。信息并非宇宙的基礎構成單元,而是衍生屬性,其存在必然預設認知主體來定義有限符號集合。
2.5 模擬與實例化
厘清概念與符號的本質差異、功能區別后,我們可以嚴格界定:對過程的模擬,與過程本身的物理實例化,存在本質區別。
? 模擬:操控物理載體符號p,復現概念A之間的抽象關聯。
? 實例化:復現過程本身內在、構成性的原生動態過程P。
經典功能主義默認:只要保留地圖的抽象拓撲結構( → ′),就足以生成疆域本身的真實現象,因此忽視了底層物理載體獨有的因果效力與構成機制。
以生物心臟為例。我們通常將心臟描述為泵血器官,人造機械心臟可以實現同等泵血功能,因此稱二者功能等價。但真實心臟的作用遠不止泵血:它會分泌心房鈉尿肽激素、調節機體代謝、通過反饋信號與神經系統交互。植入機械心臟的患者常會出現細微全身性生理異常,原因就在于:機械心臟僅實現了核心功能的粗略地圖模擬,并未實例化心臟完整的生物本體疆域。
這種粒度不匹配問題,放在神經元層面體現得更為極端。功能主義往往只把神經元視作電信號收發單元,卻忽略了神經元本身是活的代謝實體,深度嵌入機體化學、激素調控網絡。這一抽象偏差,直接推翻了功能主義的經典思想實驗——漸逝感受質論證。
查爾默斯曾提出:若用硅基芯片逐個替換生物神經元,且全程保持輸入輸出功能不變,那么意識不可能在行為不變的前提下逐漸消失。由此他得出結論:保留抽象功能結構,就足以保留主觀意識體驗。
但事實上,僅完美復刻神經元電信號發放規律p → p'的硅基替換體,只保留了外部計算地圖,且該地圖完全由外部制圖者定義抽象規則A→ A'。它徹底抹除了生命存續所需的內在熱力學本體P,用無因果效力的語法模擬,替換了具備構成性的物理實在。主觀感受質并非神秘地“逐漸消失”,只是生成感受質必需的底層代謝基底,從根源上被剔除了。
生物學其他領域的物理模擬,也能印證這一結論。
圖形處理器模擬光合作用,可以精準建模陽光、水、二氧化碳轉化為氧氣、葡萄糖的抽象過程A→A',但它永遠無法合成一分子葡萄糖、釋放一絲氧氣。它完美模擬過程表象,卻完全不具備底層生化反應的真實因果能力。
若認為大腦“軟件”模擬可以突破這一物理限制,便犯了范疇錯誤:把對過程的算法描述,等同于實現該過程所需的內在物理實在。
這種對內在因果性的要求,完全源自物理主義基本原理,并非形而上學偏好。幻覺論意識理論認為,功能層面的言語報告就足以完整代表真實體驗。但依據金在權的物理因果閉合原則:人說出“我感到疼痛”這類體驗報告,本質是空氣振動的物理事件。若主觀體驗真實引發了該物理報告,而非巧合或幻覺,那么體驗本身必然具備真實物理因果效力,能夠對外做功。
在數字模擬系統中,整條因果鏈條完全由物理載體p驅動。邏輯門電平翻轉,絕非因為系統“感到疼痛”(概念A驅動的內容因果),僅僅是電壓越過預設物理閾值(載體p驅動的物理因果)。系統自身的物理狀態唯一決定演化走向,符號自帶的語義內容不參與任何因果作用——即便符號本身無任何指代意義,機器依舊會執行完全相同的物理運算。一旦否認這一點,便陷入抽象謬誤。
![]()
2.6 計算涌現謬誤
面對模擬與實例化的本質區別,功能主義學者往往訴諸復雜度理論與涌現理論進行辯解:就像水分子相互作用涌現出濕潤屬性,只要系統復雜度達到臨界閾值,意識就會從計算過程中自發涌現。
該反駁完全不成立,因為其混淆了弱物理涌現與本文所批判的計算涌現謬誤。
? 弱物理涌現(真實物理層面):濕潤等宏觀屬性,直接依附于底層微觀物質(水分子)的內在因果動態。
? 計算涌現(抽象層面謬誤):聲稱對過程的抽象描述(地圖),僅依靠語法復雜度無限提升,就能轉化為過程本身的物理實在(疆域)。
功能主義堅持意識是特殊存在,屬于完全獨立于載體的純粹信息。但該論證屬于循環預設:直接默認心智狀態等同于抽象信息A,完全跳過生成信息的物理實在P。
前文已論證,語法運算A →A'本身無任何內在因果力,只是制圖者賦予的外在解讀。若聲稱抽象語法能“涌現”為物理因果,完全違背科學基本假設,破壞物理世界的因果閉合性。
3 因果循環:重構因果鏈條
厘清物理原生動態P與計算抽象地圖A的明確邊界后,便能精準定位計算功能主義內部完整的邏輯謬誤(對應上圖拓撲結構)。
3.1 本體論倒置與因果鴻溝
傳統功能主義秉持未經審視的樸素因果序列:
物理 →計算 →意識
該觀點默認:只要計算復雜度達標,意識就會作為下游副產品自然出現。
但結合前文論證可知,計算并非世界原生存在、等待被發現的自然實在。定義離散符號、賦予符號語義意義,必須依賴已經具備意識的制圖者。因此我們必須徹底重構因果順序:
物理 →意識 → 概念 →計算
1. 物理:宇宙本身內在的原生因果動態。
2. 意識:由特定熱力學物理結構直接生成的現象學主觀體驗。
3. 概念:從原始體驗中提取不變特征形成的內在心智地圖。
4. 計算:外在符號地圖,即把離散符號依照規則進行語法運算,而這些符號本身只是人為對應概念的物理標記。
修正后的因果鏈嚴格單向不可逆。概念牢牢扎根于主體內在體驗,擁有不可還原的主觀感受;而計算符號只是物理標記,與對應概念無內在綁定。
從概念到符號,并非抽象深化過程,而是制圖者人為綁定物理載體與心智概念的橫向賦值行為。正是這條無法跨越的橫向鴻溝,永久切斷了符號回溯原生體驗的內在路徑。
對應關系建立后,制圖者制定語法規則,約束符號的物理狀態演化p → p'。這些規則自上而下設計,完美復刻對應概念內在的關聯演化A →A'。即便結構模仿天衣無縫,物理符號本身依舊無法對語義內容產生任何因果影響。機器只是盲目運行映射軌跡,與自身模擬的主觀體驗實在完全脫鉤。
功能主義試圖用計算過程(第四步)解釋制圖者本身(第二步意識)的起源,而計算本身從一開始就預設了制圖者存在。這不止是經驗層面的缺陷,更是根本性范疇錯誤,也是物理主義框架下不可突破的約束:語法地圖的構建自始至終需要制圖者參與。因此無論算法多復雜、算力多龐大,都無法逆向跨越因果鴻溝,生成擁有主觀體驗的主體。
計算功能主義自帶的本體論倒置,形成結構性悖論:試圖從自身衍生的次級產物,反向推導本源的制圖者本身。
3.2 符號歸類的普適性
人工智能領域長期存在一項爭論,可追溯至20世紀80年代聯結主義革命:有觀點認為現代神經網絡區別于傳統符號系統,運行于亞符號層面。頂尖研究者據此提出,這類架構可以構建世界模型、遞歸認知閉環,實現真正的智能理解。
本文認可:這類遞歸架構能夠復現內省思維的結構特征;高維向量空間可以刻畫區別于離散符號的幾何關聯,神經網絡能夠建模復雜關系結構。但把結構幾何相似度等同于內在語義意義,依舊是抽象謬誤。該觀點混淆了表征結構與底層物理實在,把模型的幾何形態錯當成系統本身的物理本質。
對此我們提出嚴格的香農約束:嚴格意義上的信息處理,系統必須具備有限經典離散符號集,以及符號集上的概率分布。在生命機體、人工硬件的宏觀層面,光強、化學濃度、膜電位等物理世界,本身沒有自帶離散的0、1符號。宇宙不會天然把宏觀物理狀態打包成可用的計算符號體系,必須由制圖者主動劃分。
將神經脈沖、電壓跳變視作“符號”,不只是物理離散化,本質依舊是符號歸類。制圖者主動賦予語義同一性,把連續寬泛的物理狀態統一視作單一可替換標記。
深度學習的高維向量空間同樣受此約束。盡管向量常被稱作連續表征,但其底層本質是浮點數字序列,每一個浮點數都屬于有限符號集內的離散符號(IEEE 754標準)。
映射函數自帶的符號歸類約束,適用于一切計算形式:數字計算、模擬計算、量子計算全部囊括在內。
以機械鐘表為例:鐘表本身是齒輪彈簧構成的連續物理動態系統P。它之所以能“計算時間”,僅僅因為制圖者介入,把連續的指針角度映射為“下午3點”這類語義概念。若無此語義賦值,鐘表只是依照力學規律運動的金屬,本身不存在內在的“時間”概念。
由此可得:缺少前置符號體系,物理載體本身并不“處理信息”;它僅生成連續動態,由外部制圖者解讀為信息。
即便未來人工智能拋棄浮點運算,改用全模擬神經形態芯片,本體鴻溝依舊存在。只要任意物理狀態(離散電壓、連續電荷分布)被定義為“輸出態”“隱層狀態”,就已經被制圖者完成符號歸類。這類模型始終被隔絕在語義壁壘之外,能夠構建精密的內在地圖,卻永遠無法與體驗的物理疆域建立內在構成性聯結。
![]()
同一套底層物理載體擁有固定因果演化軌跡,卻不對應唯一計算過程。依靠不同的符號歸類規則,完全相同的物理狀態可以映射為截然不同的抽象計算:可以是一段樂曲、反向樂曲、金融市場數據、隨機噪聲。物理狀態本身沒有內在屬性優先選定某一套符號體系。所謂“數字單元”并非物理原生存在,只是制圖者做出的認知劃分,把連續物理動態框定為有限邏輯集合。
3.3 機制的不確定性
皮奇尼尼倡導的計算機制論,試圖完全剔除制圖者,主張無需借助表征概念,就能獨立定義計算。該理論認為,僅依靠系統功能劃分出的宏觀物理狀態(數字單元),就能完整定義計算。
但這種做法只是隱藏了制圖者,并未消除其必要性。正如斯普雷瓦克針對平凡性論證的分析:想要確定任意物理機制對應的計算身份,依舊需要外部主體界定有效狀態范圍。物理機制可以自發形成穩定吸引子(即前文熱力學離散化),但把這些連續吸引子劃分成特定有限計算符號集,永遠是制圖者施加的外部界定。
我們可以用簡潔的旋律悖論直觀揭示這一邏輯陷阱:假設有一臺物理設備,按照固定規律切換電壓狀態。其物理演化p →p'由電磁規律完全固定,但該過程對應的抽象計算A →A'本身完全無法確定。缺少外部制圖者給定映射規則,這一串物理狀態可以代表任意事物:正向旋律、反向旋律、股票價格序列、隨機噪聲。
物理電壓本身沒有任何固有屬性,能夠偏愛某一套符號體系。硬件內不存在天然的“計算單元”,一切劃分都來自制圖者的認知切割,強行把連續物理過程納入有限邏輯集合。
綜上,即便物理系統依照固定規則演化出可區分宏觀狀態,依舊需要制圖者介入,把多重模糊的計算解讀收斂為唯一確定過程。機制提供物理載體,符號體系必須由制圖者賦予。
4 研究推論:計算實現的固有邊界
本文框架證明:人工智能無法產生意識,無關算力規模、無關算法復雜度,核心邊界在于模擬與實例化的本質差異。該結論直接影響當前人工智能領域兩大熱門前沿方向:具身機器人、通用人工智能安全。
4.1 機器人領域的轉導謬誤
針對本文構成論框架,最強的反駁觀點來自具身智能理論。該觀點認為:人工智能缺失意識的關鍵,是缺少與物理環境的深度因果交互;只要配備傳感器與執行器,實現實時感知與物理行動,就能填補因果鴻溝,讓系統內部符號獲得真實語義根基。
但單純增加傳感器、執行器,無法解決主觀體驗實例化的深層問題。我們認可:具身智能能夠解決符號指稱問題,實現內部符號與外部物理數據流的有效映射,擺脫純內部語義循環困境。但必須嚴格區分指稱映射與內在意義生成。
用類比清晰說明:給電腦連接攝像頭與機械臂,等同于給一個模擬程序外接測量儀器。程序能夠接收真實世界數據,但其內部變量依舊只是符號表征,絕非物理過程本身。同理,接入實時大氣傳感器的氣象模擬程序,永遠不會變成真實大氣層,只是接收、運算大氣數據而已。
該原理完全適用于具身人工智能。傳感器與執行器讓系統能夠和物理世界交互,卻無法把符號表征轉化為內在主觀語義體驗。系統可以繪制愈發精細的環境地圖,但與真實疆域互動,永遠無法把地圖變成體驗本身的疆域。
梳理具身系統完整因果鏈條,能夠總結出本文定義的轉導謬誤:
1. 輸入轉導:傳感器將外部物理信號轉化為連續電壓,經外部校準的模數轉換器完成符號歸類,轉為內部離散數字狀態(例如:熱能→連續電壓→離散數值)。
2. 語法運算:算法內核操控內部離散狀態,生成輸出,物理層面實現抽象算法。
3. 輸出轉導:執行器把數字輸出重新轉化為宏觀物理作用力。
機器人系統的算法控制核心,全程僅運行于第二步。它處理的全部對象,都是經外部制圖者離散歸類后的符號(浮點運算數值、矩陣運算單元)。
現代端到端連續控制領域學者會反駁:當代機器人網絡可直接把原始傳感器數據映射為機械力矩,無需人類可讀符號。但正如前文所述,運行這類模型的硬件(GPU)依舊依靠浮點數值的符號歸類、內置數學運算規則實現,制圖者的前置劃分并未消失,反而直接固化在芯片架構底層。
轉導謬誤的深層錯誤不止是“物理信號轉化為數字”,真正的范疇錯誤在于:認為對這些轉導符號進行算法運算,就能生成主觀體驗主體。
對比芯片運行算法的具身機器人與生物制圖者可知:生物主體的主觀體驗是先天物理實在,并非源自抽象信息處理,而是自身代謝構成的獨特物理存在。
沒有任何物理或邏輯依據能夠證明:僅因為硅基芯片實現了感官輸入與機械動作的語法映射,就會產生同類內在體驗。強行認定該結論,違背物理主義基本原理。
前文已論證,所有算法對應的抽象狀態(計算語義內容)無內在因果力,系統內唯一真實物理因果僅來自硅基硬件本身。
因此,聲稱具身機器人的語法運算能生成意識,等同于斷言芯片僅憑自身物質屬性,就先天具備意識能力——與是否連接機械軀體、運行何種算法均無關。
綜上,結合地圖-疆域本體關系可證:具身交互無法把模擬轉化為真實主觀體驗。
4.2 本體論解脫:無感知工具的安全價值
既然算法復雜度、物理具身均無法跨越因果鴻溝,我們可以總結本框架的現實應用價值。計算地圖與物理疆域的結構性割裂,直接指導人工智能安全研究,清晰界定何種系統可能產生主觀體驗、何種系統絕對無法產生。
生成認知、具身認知領域的研究指出,諸多物理過程與意識高度相關:生命自創生、機體內部持續熱力學穩態調節。以往學界將這些過程歸為碳基生物專屬屬性。
本文框架給出全新解讀:依舊堅守物理主義,重視真實內在物理過程,但不限定這些過程只能存在于生物機體。
在本理論視角下,主觀體驗依賴特定動態過程的物理實例化。因此意識并非必然僅限于碳基生命;理論上可以設計非生物系統,實現意識所需的全部物理條件。若人工載體完美實現這些物理條件,意識便有可能誕生。
但同時,本框架的結構性邊界嚴格限定:即便存在有意識的人工系統,其意識來源也必然是自身獨特物理構成,與載體獨立性理論完全相反。
主觀意識是構成性物理狀態,結合模擬與實例化的本體邊界可得:單純提升算力、運行強力算法,永遠無法憑空涌現意識。意識并非可以隨意生成、偶然誕生的軟件產物。
該結論為領域發展指明方向:高能力通用人工智能的發展,不會天然誕生全新的道德受動者,人類只是研發出功能愈發精密、但本質無主觀感知的智能工具。
同時,大規模行為級模仿能力,帶來全新的認知嚴謹性要求。人工智能愈發擅長復刻人類對應其他意識主體的行為特征,人形機器人等具身系統更會放大這一趨勢。
這對科研界提出明確要求:無需為機器權益做預設籌備,而要嚴格堅守方法論邊界——區分模擬能動性(外在目的論)與主體物理實例化(內在目的論)。
未來任何“人工智能具備感知”的論斷,都必須經過嚴格物理主義驗證:驗證依據絕非算法復雜度,而是主觀體驗所需的專屬內在物理動態過程。
5 結論:計算的認知盲區
人們普遍將計算視作宇宙基礎屬性,計算功能主義以此為根基,主張計算是人類意識的本源。但本文追溯計算的完整因果起源后證明:該理論存在根本性本體論倒置——意識不可能是計算的下游產物,恰恰相反,意識是計算得以存在的必要物理前提。
本文進一步論證:計算本質是描述性地圖,永遠無法物理實例化自身所描述的對象。以上關于主觀體驗本質、計算本質的全部結論,均嚴格基于成熟物理定律與嚴謹邏輯推演,顛覆了學界普遍直覺。
至關重要的是,與絕大多數人工智能意識猜想不同,本框架不依賴完備的意識終極理論。我們繞開意識本源難題,從方程另一端解決爭議:計算在本體論層面究竟是什么?
關于意識,本框架僅依托一條基礎科學公理:主觀體驗不違背物理因果閉合原則。僅憑這一公理便可推出:體驗是完全由物理構成的實在現象,由此規避所有二元論、副現象論哲學猜想。
總結本文確立的完整本體論:
計算,是依照規則操控離散符號的語法過程,目的是模擬概念思維;符號并非概念的本質精華,只是制圖者人為賦值的物理標記。
概念,則是從真實熱力學生命體驗中主動提取、具備物理構成的不變特征。
因此,指望算法描述生成自身所刻畫的主觀體驗,無異于指望重力公式本身產生物理重力。認為人工智能僅靠內部變量運算就能產生意識,正是典型認知盲區謬誤:混淆地圖與疆域。
計算描述無法生成主觀體驗,并非工程技術尚未達標,而是描述本身自帶的邏輯必然局限。同時也說明,主觀感受質無法依靠愈發精巧的語法運算破解;恰恰相反,感受質是底層物理基底,正是它,才讓語法符號的語義賦值從根源上得以成立。
人類不斷研發能力更強的人工智能,并非創造全新生命,只是構建愈發精準的預測地圖。無論地圖預測精度多高、推理實用性多強、是否具備物理軀體,人工系統在本體層面,永遠與主觀體驗疆域存在本質界限。
認清這一區別,規避抽象謬誤帶來的本體論倒置,是機器智能科學走向成熟、立足于物理學根基發展的必要前提。
致謝
作者感謝沙米爾·錢達里亞的審閱與建議,塞巴斯蒂安·克里爾早期研究支持與公共政策視角分析;感謝曼達娜·艾哈邁迪對文稿科普化修改的寶貴意見,以及谷歌深度思維團隊的學術研討,完善本理論框架的表述。
免責聲明
本文所述理論框架與論證結論均為作者獨立研究成果,不代表所屬機構官方立場、觀點與戰略政策。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.