周三下午,一個程序員第17次向AI助手解釋公司的代碼規(guī)范。同樣的接口命名規(guī)則,同樣的錯誤處理模式——每次對話從零開始,每次都要付費重新"理解"。
這不是個例。RAG(檢索增強生成)把知識庫變成了開卷考試:Agent帶著"參考書"進考場,考完就忘。真正決定Agent上限的,是記憶架構(gòu)——它能不能像人一樣學(xué)習(xí)、整理、進化知識。
![]()
OpenAI聯(lián)創(chuàng)Andrej Karpathy最近開源了LLM Wiki,用一個Markdown文件解決了核心問題:如何把零散信息變成AI能推理的知識系統(tǒng)。YC CEO Garry Tan的GBrain項目也在走同一條路,但更強調(diào)工程嚴(yán)謹(jǐn)性。
人類擅長收集信息,卻 terrible 于維護。瀏覽器收藏夾里的"稍后閱讀"、桌面上的PDF堆——都是數(shù)字化石。企業(yè)和個人面臨雙重崩塌:知識隨產(chǎn)品政策過期失效,多維關(guān)系的手工維護成本高昂。
Prompt Engineering教模型"做什么任務(wù)"。Knowledge Engineering教模型"該知道什么"和"怎么運用所知"。LLM Wiki的顛覆在于:不讓模型每次都從原始文檔重新發(fā)現(xiàn)答案,而是維護一份持續(xù)更新、互相鏈接、能識別矛盾的知識wiki。
知識不再是靜態(tài)池塘,而是活的生命體。代碼工作流里,我們要的不只是語法正確,更是風(fēng)格慣例——"接口優(yōu)先"還是"原型優(yōu)先"、偏好的框架、異常處理習(xí)慣。這些無法靠單次檢索獲得,只能靠結(jié)構(gòu)化記憶積累。
RAG把書帶進考場。知識工程教會Agent深度學(xué)習(xí)、做筆記、每周進步。生產(chǎn)環(huán)境的杠桿效應(yīng),從這里開始分化。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.