你有多久沒審視過自己的AI使用習慣了?上周我翻遍了近兩年的Claude Code記錄,發現了一個尷尬的事實:我反復在做的某些事,系統根本不知道。
1870個JSONL文件,904MB數據,45個項目目錄。這是我過去一段時間與AI協作留下的全部痕跡。最初只是想回答一個簡單問題——"看看這些數據,推薦些新技能"——但手動扒完一遍后,我意識到這事根本沒法常做。太耗時,太瑣碎,太依賴記憶。
![]()
于是那個凌晨兩點,我決定把它變成管道。
從一次性分析到可復用系統
數據清洗是第一道坎。1870個文件里,真正的用戶輸入只有2752條——大量是系統日志、自動補全、空響應。我需要過濾出"人話",也就是我親手敲進去的提示詞。
接下來是對照現有技能庫:9個用戶自定義技能,47個插件技能,總共56個。每條有效提示都要過一遍匹配檢查,找出系統還沒覆蓋的重復模式。
排名邏輯用Python寫的,核心很簡單:算頻率,算相關性,取前12。第一輪跑出12個候選,6個直接上線。三個典型例子:
? narrative-docs-update:文檔級寫作標準,30個項目里出現147次
? whats-next:會話重啟時的狀態簡報,62次以上
? 另外四個針對特定重復任務
整個管道跑在我自己的服務器上,Node.js負責文件解析,Python做排名,輸出直接寫成可加載的配置。本地計算,成本可控。
那些沒寫在代碼里的妥協
第一版漏了東西。有些提示因為格式不統一,被當成噪音過濾掉了。我凌晨兩點爬起來改過濾邏輯,手動把邊緣案例撈回來。
另一個限制更根本:這是批處理,不是實時流。數據是靜態快照,想持續更新得等v2。目前它和Nexus、ARIA綁在一起,下一步是接進Nexus做連續更新。
這件事的真正價值
不是那6個新技能。是把"手動苦力活"變成"跑一次腳本"。
做AI工具的應該都有同感:某種分析你做了十遍,第十一遍才想起來該自動化。我這次省下的時間是按"每次會話"算的,項目越多,邊際成本越趨近于零。
你現在在重復做什么?有沒有已經值得管道化的事?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.