![]()
導語
集智俱樂部、集智學園創始人,北京師范大學張江教授開設了,致力于打破學科壁壘,將復雜系統與人工智能深度融合。從神經網絡到因果推斷,從世界模型到多尺度建模,甚至包含最前沿的“氛圍編程(Vibe Coding)”實戰,帶你親手落地AI項目。
作為系列課程的第九講,張江教授將以「復雜系統自動建模 II:推理」為題,系統講解如何用已訓練的模型從新數據中挖掘復雜系統的隱藏結構與規律。正式分享將于5月11日(周一)13:30-16:15騰訊會議線上直播,北師大海淀區線下授課(助教可協助入校)。
課程簡介
圖神經網絡可以從基因表達時間序列中重建調控網絡,鏈式思維提示使PaLM 540B在GSM8K數學推理測試中的準確率從18%躍升至57%,這兩件事共享同一個核心問題:利用訓練好的模型,從新數據中推斷出隱藏的結構和規律。
本次課程將系統介紹面向復雜系統的推理方法,沿四條主線展開。結構推理部分介紹Gumbel圖網絡(GGN)與AIDD框架如何聯合學習Kuramoto振蕩器、布爾網絡等系統的拓撲結構與節點動力學,以及NRI變分自編碼器框架下的無監督關系推斷;缺失信息推理部分涵蓋不可觀測節點與鏈接的網絡補全(GIN框架、C-GIN),以及時空物理推斷網絡(SPIN);臨界轉變預測部分介紹臨界慢化、閃爍等早期預警指標,以及GIN-GRU深度學習框架在Kuramoto振蕩器與非洲植被生態系統上的臨界點預測;大語言模型推理部分涵蓋鏈式思維提示(CoT)、最少到最多提示(Least-to-Most Prompting)、推斷縮放律,以及STaR自舉推理算法。
學完本課程,你能夠理解從觀測數據重建復雜網絡的完整方法鏈,掌握缺失數據插補和臨界轉變預測的技術工具,并理解現代大語言模型推理能力提升的核心機制。
課程大綱
What is Inference?
Structural Inference
Inferring Missing Information
Anticipating Critical Transitions
Inference of LLM
關鍵術語
Gumbel Softmax:將離散類別采樣轉化為可微近似的重參數化技巧,使含離散隨機變量的網絡可端到端訓練
結構推理(Structural Inference):僅憑節點行為時間序列,推斷系統中節點間交互關系與網絡拓撲
AIDD:通用深度學習框架,通過可微Bernoulli采樣同步重建網絡結構與節點動力學
臨界點(Tipping Point):復雜系統中微小觸發可導致狀態突變至對立穩態的臨界閾值
臨界慢化(Critical Slowing Down):系統接近臨界點時,擾動后恢復平衡速度減慢,方差增大
NRI(神經關系推斷):以變分自編碼器同時學習互動系統潛在關系圖與動力學的無監督模型
鏈式思維提示(Chain-of-Thought Prompting):在提示詞中提供中間推理步驟示例,引導大模型逐步推導復雜問題
推理縮放律(Inference Scaling Laws):描述推理時計算量與模型性能權衡關系的經驗規律,指導計算最優推理配置
STaR(自教推理機):通過迭代生成推理鏈、過濾正確答案、微調模型的自舉式推理增強方法
課程信息
課程主題:復雜系統自動建模 II:推理
課程時間:2026年5月11日(周一) 13:30-16:15
課程形式:騰訊會議(會議信息見群內通知)/北師大海淀區線下授課(助教可協助入校);集智學園網站錄播(3個工作日內上線)
課程主講人
張江,北京師范大學系統科學學院教授,集智俱樂部、集智學園創始人,集智科學研究中心理事長,曾任騰訊研究院、華為戰略研究院等特聘顧問。主要研究領域包括因果涌現、復雜系統分析與建模、規模理論等。
個人主頁:https://jake.swarma.org/
課程適用對象
理工科背景高年級本科生
理工科背景碩士、博士研究生
報名須知
1. 課程形式:
參與方式:付費學員可參與騰訊會議直播/北師大海淀區線下授課(助教可協助入校)
授課形式:
平時:課堂討論與內容共創
結課:項目匯報
2. 課程周期:2026年3月2日-2026年6月22日,每周一 13:30-16:15進行。
3. 課程定價:399元
課程鏈接:https://campus.swarma.org/v3/course/5684?from=wechat
付費流程:
課程頁面添加學員登記表,添加助教微信入群;
課程可開發票。
課程共創任務:課程字幕
為鼓勵學員深度參與、積極探索,我們致力于形成系列化知識傳播成果,并構建課程知識共建社群。為此,我們特別設立激勵機制,讓您的學習之旅滿載收獲與成就感。
課程以老師講授為主,每期結束后,助教會于課程群內發布字幕共創任務。學員通過參與這些任務,不僅能加深對內容的理解,還可獲得積分獎勵。積分可兌換其他讀書會課程或實物獎品,助力您的持續成長。
推薦課程
參考課程
吳恩達:Build with Andrew https://www.deeplearning.ai/courses/build-with-andrew/
Jure Leskovec: Machine Learning with Graphs, StanfordCS224W.https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn
Steve Brunton: Data Driven Science and Engineering, University of Washingtonhttps://www.youtube.com/playlist?list=PLMrJAkhIeNNRpsRhXTMt8uJdIGz9-X_1-
Karthik Duraisamy: DATA-DRIVEN ANALYSIS AND MODELING OF COMPLEX SYSTEMS, Michigen institute for computational discovery and engineering, Michigen University.https://micde.umich.edu/academic-programs-old/data-driven-course/
Sergey Levine: Deep Reinforcement Learning, CS 285 at UC Berkeley.http://rail.eecs.berkeley.edu/deeprlcourse/
【集智學園網站資源】
對復雜系統連續變化自動建模——Neural Ordinary Differential Equations解讀https://campus.swarma.org/course/2046
復雜網絡自動建模在大氣污染中的應用https://campus.swarma.org/course/1998
兩套因果框架深度剖析:潛在結果模型與結構因果模型https://campus.swarma.org/course/2526
穩定學習:發掘因果推理和機器學習的共同基礎https://campus.swarma.org/course/2323
因果強化學習https://campus.swarma.org/course/2156
張江:因果與機器學習能夠破解涌現之謎嗎https://campus.swarma.org/course/4540
因果涌現理論提出者:Erik Hoel主題報告https://campus.swarma.org/course/4317
如何從數據中發現因果涌現——神經信息壓縮器https://campus.swarma.org/course/4874
標準化流技術簡介https://campus.swarma.org/course/1999
帶隱狀態的強化學習世界模型https://campus.swarma.org/course/4848
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.