<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      Perplexity 公開了他們的 Skills 設計之魂

      0
      分享至

      大家好,我是 Ai 學習的老章

      今天有一篇必讀的文章——Perplexity 把他們內部維護數百個 Skill 的最佳實踐公開了

      讀完最大的感受是:寫 Skill 的最佳實踐,跟寫代碼的最佳實踐,幾乎反著來

      Zen of Python vs Zen of Skills

      Perplexity 團隊拿 PEP 20 的"Python 之禪"開了個玩笑,他們整理了一張對照表,Python 之禪里大約一半的箴言,寫 Skill 時完全反著才對

      Zen of Python

      Zen of Skills

      Simple is better than complex

      Skill 是文件夾不是單文件, 復雜性本身就是 feature

      Explicit is better than implicit

      激活靠 隱式模式匹配 ,靠漸進披露

      Sparse is better than dense

      Context 很貴,每個 token 都要帶最大信號

      Special cases aren't special enough

      Gotcha 就是特殊情況,它們是最高價值內容

      實現好解釋就是好主意

      如果好解釋, 說明模型已經知道了,刪掉

      簡單一句話:寫 Skill 不是寫軟件,是給模型構建 context約束完全不同,設計原則也完全不同——按寫代碼的思路去寫 Skill,結果一定拉胯

      老章特別認同最后一條——如果一段內容很容易解釋清楚,那大概率模型自己就會,寫進 Skill 里只是浪費 token

      Skill 是什么

      Perplexity 給了一個四面體的定義:

      ? A Skill is a Directory

      子項

      作用

      SKILL.md

      frontmatter + 主指令

      scripts/

      讓 agent 直接跑的代碼,別讓它現寫

      references/

      重文檔,按需加載

      assets/

      模板、schema、數據

      config.json

      首次使用的用戶配置

      這種 hub-and-spoke(中心-輻射)模式可以把 Skill 寫得極其緊湊又能容納極復雜的內容

      Perplexity 透露的一個真實案例很猛——他們做 Computer 的所得稅 Skill 時,要塞下稅收法典的 1945 條 內容如果一股腦塞到一個文件夾里,模型表現比不加載這個 Skill 還差

      后來他們改用三層主題嵌套(300 個 topic → 20 個 area → 內部 ~15 個 topic),加上自定義搜索工具和快速引導,才把稅務相關任務的能力做扎實

      ? 重點:層級是有代價的,多一層就要多一份信息架構上的人工梳理但梳理好了,模型的查閱精度會指數級提升
      2) Skill 是一種格式

      SKILL.md 頭部 frontmatter 的兩個核心字段:

      • name :必須全小寫、無空格、可用連字符,要和目錄名完全一致

      • description路由觸發器,不是內部文檔

      這是新手最大的失敗模式——把 description 寫成"這個 Skill 做什么",應該寫成"什么時候該加載這個 Skill"

      ? 應該是 "Load when...",不是 "This Skill does..."
      3) Skill 是可被調用的

      agent 在運行時按需加載 Skill,不是無腦塞 context

      Perplexity Computer 的加載流程:

      1. agent 調用 load_skill(name="...")

      2. Computer 把 Skill 目錄復制到隔離沙箱

      3. depends: 遞歸加載依賴

      4. 剝掉 frontmatter,agent 只看正文+附屬文件

      4) Skill 是漸進的(progressive disclosure)

      這是整篇文章最核心的概念,三檔上下文成本

      Tier

      加載什么

      預算

      什么時候付

      Index

      所有可見 Skill 的 name: description

      每個 Skill ~100 token

      每會話每用戶都付 Load

      完整 SKILL.md 正文

      ~5000 token

      加載之后到壓縮邊界都要付

      Runtime scripts/

      references/assets/ 、子 skill

      無上限

      只在 agent 真的去讀時付


      為什么這個分層這么重要?

      • Index 階段的 100 token 是 全局稅 ,每個用戶每次會話都要交 → 描述必須極致精煉

      • Load 階段的 5000 token 是 任務稅 ,一次會話多個 Skill 同時加載就翻倍 → 每句話都要有用

      • Runtime 階段最寬松,可以放 20000 token 的分支邏輯,agent 用到才付

      什么時候真的需要寫 Skill

      Perplexity 團隊被問得最多的就是這個問題,他們的標準答案是:

      ? 沒有先驗答案先不加 Skill 跑幾次 hero query,看 agent 表現,如果它能搞定就不需要 Skill

      真的需要寫 Skill 的場景:

      • agent 沒特殊上下文就會做錯

      • 跨多次運行需要極致一致性

      • 知識是穩定的,但不在模型訓練數據里(截止時間外 / 企業私有流程)

      • 品味問題 (這點很妙)—— Perplexity 設計總監 Henry 寫的設計 Skill,每個字都是關于"哪種字體感覺對、哪種不對"的判斷,這種東西模型從訓練里學不到

      真的不需要寫 Skill 的場景:

      • 一串 git 命令的執行順序——模型本來就知道

      • 重復 system prompt 里已有的內容

      • 變化比維護速度還快的東西(比如頻繁更新的 MCP 端點)

      Every Skill is a Tax

      整篇文章我覺得最值錢的就是這句話:每個 Skill 都是稅

      實用的自檢:

      ? "如果沒這句話,agent 會不會做錯?" 不會做錯 → 不能留

      寫 Skill 真的很難寫短,Perplexity 引用了帕斯卡 1657 年那句名言:

      ? Je n'ai fait celle-ci plus longue que parce que je n'ai pas eu le loisir de la faire plus courte (這封信寫得這么長,只因為我沒時間把它寫短)

      如果你 5 分鐘就能寫完一個 Skill 還提了 PR,那這個 Skill 大概率不及格

      更扎心的:一項早期研究表明,讓 LLM 自己寫 Skill,平均來看模型從這種 Skill 里得不到任何好處——"模型無法可靠地撰寫它消費時受益的那種程序性知識"

      五步法

      Perplexity 給的 Skill 撰寫流程:

      Step 0:先寫 evals

      來源三類:

      • 真實用戶查詢(生產采樣或團隊 brain trust)

      • 已知失敗用例(之前 agent 做錯的地方)

      • 鄰域混淆(語義靠近但應該路由到別的 Skill)

      負面樣本往往比正面樣本更有價值

      Step 1:寫 description

      最難的就這一行:

      • 以 "Load when..." 開頭

      • 50 詞以內

      • 描述用戶 意圖 (最好是真實查詢)

      • 不要描述工作流

      正確示范:與其寫"監控 PR",不如寫工程師沮喪時會說的話——"babysit"、"watch CI"、"make sure this lands"

      Step 2:寫正文

      跟人交流和跟 LLM 交流是兩回事——

      ? 不要寫:

      git log # find the commit
      git checkout main
      git checkout -b
      git cherry-pick

      ? 這樣寫:

      ? Cherry-pick the commit onto a clean branch. Resolve conflicts preserving intent. If it can't land cleanly, explain why.

      別"軌道化",給模型留出靈活處理多種情況的空間

      最高價值內容是 gotcha——把每次 agent 翻車的點累積起來

      Step 3:用好目錄結構

      目錄

      用途

      scripts/

      agent 每次都會重復發明的確定性邏輯

      references/

      條件觸發的重文檔

      assets/

      輸出模板和 schema

      config.json

      首次配置

      Step 4:迭代

      在 branch 上反復跑評估再合入,讓 reviewer 一次拿到完整 changeset + 評估集

      怎么維護 Skill:Gotchas 飛輪

      發布之后才是真正的開始:

      Agent 表現

      怎么做

      任務失敗

      加一條 gotcha

      加載了不該加載的 Skill

      收緊 description + 加負樣本

      沒加載該加載的 Skill

      加關鍵詞 + 加正樣本

      system prompt 變化

      檢查沖突或重復

      Skill 是 append-mostly 的——大部分時間你在追加 gotcha,而不是改描述或擴指令

      如果你合入之后第一件事就是改 description,那基本就跑偏了——因為 description 決定路由,改它會對所有其他 Skill 產生外溢影響

      多模型評測必須做

      Perplexity Computer 至少同時支持三個家族的編排模型:GPT、Claude Opus、Claude SonnetSonnet 和 GPT 在 Skill 行為上差異不小,所以同一個 Skill 必須跨模型評測

      ? 這點國內廠商基本沒人做……
      老章的幾個 takeaway

      通讀一遍下來,對國內做 Agent / Skill 的同學最有借鑒的幾條:

      1. Skill 不是新文檔 ——別把 README 當 Skill 寫

      2. Description 是最難的一行 ——它決定路由,不是描述

      3. Gotcha 是無價的 ——出錯就加一條,長期飛輪

      4. 每個 Skill 都是稅 ——加之前先問"agent 沒它會不會出錯"

      5. 多模型評測 ——別只跟一個模型耦合

      6. Action at a distance 是真存在的 ——新加一個 Skill 可能讓另一個不相關的 Skill 變差,這點最反直覺

      附一句很扎心的事實:讓 LLM 自動寫 Skill,目前的結論是沒收益Skill 這件事,目前還是非常依賴人來注入"判斷"

      總結

      如果你團隊在用 Claude Skills 或者要在 Computer / Codex 上做 Agent,這篇 Perplexity 的文章值得收藏反復讀

      我個人最大的認知更新是 Three-Tier Context Cost 這個框架——Index / Load / Runtime 三檔預算,過去我寫 Skill 沒有這么清晰的成本分層概念,看完明顯能感覺到"哪些字該放哪兒"

      原文:research.perplexity.ai/articles/designing-refining-and-maintaining-agent-skills-at-perplexity

      制作不易,如果這篇文章覺得對你有用,可否點個關注給我個三連擊:點贊、轉發和在看若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      女子4S店找母嬰室喂奶遭嘲笑,理想客服:門店已主動道歉,承諾將在215家門店增設母嬰室

      女子4S店找母嬰室喂奶遭嘲笑,理想客服:門店已主動道歉,承諾將在215家門店增設母嬰室

      觀威海
      2026-05-12 10:10:07
      3小時!40人!印度炸出一條震撼國際的暗訪猛料!

      3小時!40人!印度炸出一條震撼國際的暗訪猛料!

      安安說
      2026-05-10 11:18:13
      “你兒子比農村土狗還好養!”中學男孩全碳水飲食,吃出可憐面相

      “你兒子比農村土狗還好養!”中學男孩全碳水飲食,吃出可憐面相

      妍妍教育日記
      2026-05-12 17:35:01
      水晶宮手握千萬英鎊 英超爭冠暗藏玄機

      水晶宮手握千萬英鎊 英超爭冠暗藏玄機

      綠茵狂熱者
      2026-05-13 06:21:32
      《主角》:花彩香懷孕,才是黃正經張光榮聯手坑死胡三元的真兇

      《主角》:花彩香懷孕,才是黃正經張光榮聯手坑死胡三元的真兇

      慫熊劇場
      2026-05-13 03:55:11
      美股全線下跌,超3500只個股走低,中概股普跌;英偉達逆勢上揚,再創歷史新高!金銀下挫,國際油價拉升|美股開盤

      美股全線下跌,超3500只個股走低,中概股普跌;英偉達逆勢上揚,再創歷史新高!金銀下挫,國際油價拉升|美股開盤

      每日經濟新聞
      2026-05-12 22:18:42
      伊朗官員:若再次遭襲,伊方或選擇將濃縮鈾豐度提升至90%

      伊朗官員:若再次遭襲,伊方或選擇將濃縮鈾豐度提升至90%

      界面新聞
      2026-05-12 14:55:29
      高校APP現“吸煙區可以配備板凳嗎,站著抽好累”訴求,老師以超400字回復駁回:實在“站不住”,建議從今天開始嘗試戒煙

      高校APP現“吸煙區可以配備板凳嗎,站著抽好累”訴求,老師以超400字回復駁回:實在“站不住”,建議從今天開始嘗試戒煙

      極目新聞
      2026-05-12 14:38:40
      生理旺盛的女人,大多有這四個特征,超準!你占幾個?

      生理旺盛的女人,大多有這四個特征,超準!你占幾個?

      皓皓情感說
      2026-05-12 13:18:22
      汪海林自曝:飯局上90后老總說最喜歡鞠婧祎,我給你推薦田曦薇

      汪海林自曝:飯局上90后老總說最喜歡鞠婧祎,我給你推薦田曦薇

      韓小娛
      2026-05-13 05:39:19
      A 股創 11 年新高,散戶最好做到三點

      A 股創 11 年新高,散戶最好做到三點

      作家出版人姚茂敦
      2026-05-12 17:48:52
      單賽季破百榜:丁俊暉紀錄被超,吳宜澤進前20,趙心童中國第1!

      單賽季破百榜:丁俊暉紀錄被超,吳宜澤進前20,趙心童中國第1!

      劉姚堯的文字城堡
      2026-05-13 07:09:16
      退圈14年,女神終于要復出了?

      退圈14年,女神終于要復出了?

      尋藝
      2026-05-11 18:46:40
      當前最熱門的五部電視劇,《主角》上升第三,你在追哪一部?

      當前最熱門的五部電視劇,《主角》上升第三,你在追哪一部?

      圓頭講電影
      2026-05-13 07:00:08
      今天,多個省份將群發短信

      今天,多個省份將群發短信

      大象新聞
      2026-05-12 10:54:12
      日媒、國際乒聯集體發聲!現在的王楚欽,完全證實王皓12天前說的話

      日媒、國際乒聯集體發聲!現在的王楚欽,完全證實王皓12天前說的話

      慢歌輕步謠
      2026-05-13 01:02:08
      12名農民工遭遇“車位抵薪”:5個車位確已被法院查封,勞動監察大隊再約談涉事方,律師稱實物抵薪違法

      12名農民工遭遇“車位抵薪”:5個車位確已被法院查封,勞動監察大隊再約談涉事方,律師稱實物抵薪違法

      極目新聞
      2026-05-12 19:59:58
      呂海鷹殺警奪槍案,大圍捕慘烈,持槍歹徒最后被21歲姑娘用刀砍死

      呂海鷹殺警奪槍案,大圍捕慘烈,持槍歹徒最后被21歲姑娘用刀砍死

      莫地方
      2026-05-12 00:55:05
      45歲獨身男子病逝15萬存款被民政局轉走?該局回應:系另一親屬所為,警方已赴外地調查|求真

      45歲獨身男子病逝15萬存款被民政局轉走?該局回應:系另一親屬所為,警方已赴外地調查|求真

      紅星新聞
      2026-05-12 13:32:22
      女子線上買榴蓮破防,5房果開出3房幾乎沒肉的“榴蓮糖”,聯系客服后退款50%

      女子線上買榴蓮破防,5房果開出3房幾乎沒肉的“榴蓮糖”,聯系客服后退款50%

      大象新聞
      2026-05-12 22:46:09
      2026-05-13 07:39:00
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3396文章數 11150關注度
      往期回顧 全部

      科技要聞

      谷歌劇透安卓重大升級 Gemini深度集成底層

      頭條要聞

      特朗普稱將同中方討論對臺軍售和黎智英案 外交部回應

      頭條要聞

      特朗普稱將同中方討論對臺軍售和黎智英案 外交部回應

      體育要聞

      騎士終于玩明白了?

      娛樂要聞

      白鹿風波升級!掉粉20萬評論區淪陷

      財經要聞

      利潤再腰斬 京東干外賣后就沒過過好日子

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      房產
      游戲
      手機
      親子
      公開課

      房產要聞

      穗八條引爆樓市!萬博寶藏紅盤,五一勁銷出圈

      曝PS6或將被迫縮減內存規格 以應對零部件漲價

      手機要聞

      谷歌攜手蘋果升級換機體驗:iPhone轉安卓可遷移密碼、主屏布局

      親子要聞

      夏天建議:把孩子的空調服換成它!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 欧美日韩a视频| 日韩人妻ol丝袜av一二区| 99久久99久久免费精品小说 | 插插无码视频大全不卡网站| 免费人成视频在线观看网站| 好大好猛好爽好深视频免费| 色婷婷一区二区三区四区成人网| 麻豆精品新a v视频中文字幕| 亚洲伊人成色综合网| 亚洲日韩乱码久久久久久| 日韩人妻无码一区二区三区久久| 日韩一区不卡成人av| 青青草免费公开视频| 国产三级av在线播放| 色偷偷综合网,欧美日韩| 好爽~又到高潮了毛片视频| 亚州AV无码乱码精品国产| 天堂中文8资源在线8| 91精品国产成人观看| 日本亚洲欧洲综合韩国欧人妻乱码| 黄石市| 狠狠躁18三区二区一区ai明星| 部精品久久久久久久久| 午夜AV色网| 在线观看A片| 一级毛片免费观看不卡视频| 久久人人爽天天玩人人妻精品| 成人网站18禁| 亚洲AV午夜成人无码电影| 亚洲中文字幕无码专区| 国产99re热这里只有精品| 国产不卡一区二区四区| 亚洲另类图| 国产成人精品无码短视频| 99热国产这里只有精品9| 依依成人影视国产精品| 人妻无码av中文系列久| 国产高在线精品亚洲三区| 白嫩少妇hdxxxⅹ性大陆| 国产精品高潮露脸在线观看| Www.久久6|