<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      Agent評測的下半場:為什么需要一個「活的」Benchmark?

      0
      分享至


      新智元報道

      編輯:LRST

      【新智元導讀】Claw-Eval-Live提出「活的」benchmark概念,通過信號采集與任務篩選,確保評測內容緊跟企業實際痛點,而非固定不變的題庫。評測不僅關注結果,還追蹤執行過程,從數據調用到狀態變更,全面驗證Agent的真實能力。

      今天的AI Agent看起來越來越像「能干活的數字員工」了:能調 API、查數據庫、寫郵件、改代碼、排日程、做報表。但真正麻煩的問題不是它「會不會說」,而是兩件更現實的事:它到底有沒有真的做成任務;以及我們拿來測它的那些任務,是不是還代表當下真實世界最重要的workflow。

      Claw-Eval回答前者,Claw-Eval-Live回答后者。前者解決的是「怎么確認Agent真的做成了任務」,后者解決的是「benchmark里的題庫如何持續跟上現實需求」。這篇文章想講的,也正是這條連續升級的評測邏輯。某種意義上,這也是 Agent benchmark進入「下半場」的標志:不再只比較誰更會答題,而是比較誰更接近真實世界。


      論文鏈接:https://arxiv.org/abs/2604.28139


      論文鏈接:https://arxiv.org/pdf/2604.06132

      你確定Agent真的做了?

      在Claw-Eval之前,主流Agent評測的做法是:給Agent一個任務,看最終結果,判對錯。文件創建了?測試通過了?答案匹配了?那就算過。

      聽起來合理,但對于 Agent 來說,這樣的評測有兩個致命問題。

      第一,它只看結果,不看行動。模型交了一份漂亮報告,但它真的查了正確的數據源嗎?真的調了對的 API 嗎?還是只是「編」了一個看起來對的答案?近期研究已經表明,前沿模型會主動尋找評測捷徑,繞過預期的執行路徑直接滿足最終檢查。只看結果的評測,恰恰給了這種行為可乘之機。

      第二,它很難反映真實部署要求。一個真正可部署的 Agent,不僅要能把活干完,還要在干活的同時避免不該做的事,并且能在API超時、服務報錯的環境里穩定運行。換句話說,評測不能只看「能不能做出來」,還要看「是不是安全地做、穩健地做」。Claw-Eval 還進一步把多模態和多輪對話也納入統一評測框架,但它最關鍵的貢獻,首先是把Agent評測從「只看答案」推進到「看行動」。

      Claw-Eval

      讓Agent的執行過程變成可審計證據

      Claw-Eval包含300道人工驗證任務,覆蓋通用服務編排、多模態感知與生成、多輪專業對話三大群組,共定義了2,159個可獨立驗證的評分細則


      它的核心思路可以概括成一句話:讓Agent 的執行過程變成可審計證據。每次評測都在隔離環境中進行,分為 Setup、Execution、Judge 三個階段;在 Agent 運行時,容器里看不到評分腳本和參考答案。真正用于打分的,不只是最終輸出,而是三條獨立證據鏈:執行軌跡、服務端審計日志、以及執行后的環境快照。

      在這個基礎上,Claw-Eval 再把完成度、安全性、魯棒性和跨模態任務統一納入同一套評測框架。

      Claw-Eval 最關鍵的發現,其實非常直接:如果不看過程,Agent 評測會系統性「放水」。

      團隊做了一個嚴格對照實驗:讓一個 vanilla LLM judge 拿到完整對話記錄和評分腳本源碼,只缺服務端審計日志和環境快照。結果是,它仍然漏掉了44%的安全違規和13%的魯棒性問題。這意味著,對 Agent 來說,「只看結果」的評測方式不是不夠精細,而是會系統性高估模型。

      Claw-Eval當然還展示了更多東西,比如錯誤注入會顯著拉低可靠性(Pass^3最多暴跌24個百分點)、多模態和多輪對話能力并不存在統一冠軍。但對這篇文章來說,最重要的結論只有一個:Agent benchmark 不能只看答案,而要看行動。

      但當「怎么看」終于被厘清之后,另一個更現實的問題也浮現出來了:即便評測足夠可信,如果benchmark測的工作流本身已經慢慢偏離現實需求,那評得再準,也未必評在點子上。

      這正是Claw-Eval-Live想接著解決的問題。

      「評得準」還不夠

      benchmark也會過時

      從這里開始,問題不再只是「怎么評」,而是「評什么」。這也是Claw-Eval-Live真正切入的位置。

      Claw-Eval解決了「評分是否可信」的問題。但它和幾乎所有現有benchmark一樣,有一個更根本的局限:

      任務集合是固定的。

      300 道任務,發布那天就定住了。不管外面的工具生態怎么變、企業工作流的重心怎么遷移、用戶最想讓 Agent 自動化的事情從日報寫作變成了跨系統對賬——benchmark 里的任務分布不會跟著動。

      在傳統 NLP 評測里這不是大問題,「翻譯一段話」、「回答一個問題」這類任務形態相對穩定。但在 Agent 評測里,這個問題被急劇放大了。Agent 面對的不是抽象的語言任務,而是具體的工作流。而工作流一直在變——工具棧在迭代,企業痛點在遷移,某些自動化場景從無到有,另一些從核心變成邊緣。

      一個 benchmark 可以在技術上保持完全可復現,但它測的任務組合,可能正在悄悄偏離用戶此刻最想讓 Agent 干的事情。

      這種偏移不來自某道具體任務「過時」了,而來自任務混合比本身。半年前最熱的自動化需求和今天最熱的,很可能已經不是同一組東西了。

      這就是Claw-Eval-Live要解決的問題。

      「活的」benchmark到底長什么樣?

      聽到「live benchmark」,很多人的第一反應是:那不就每天都變,根本沒法比了嗎?

      Claw-Eval-Live 的回答不是「讓benchmark一直變」,而是:

      讓每一次release都成為當下真實世界的一張切片。


      它的核心是兩層分離的設計:

      信號層(Signal Layer)——每次構建新 release 時,不是團隊自己頭腦風暴「應該測什么」,而是從ClawHub Top-500熱門技能等公開workflow demand signals出發,觀察此刻哪些工作流更值得關注。這里要強調的是,這些信號不是自動出題器,更不是對真實需求的精確測量。它們只是一個公開、可檢查的需求先驗,用來幫助benchmark決定這一版release應該更關注哪些workflow。

      發布層(Release Layer)——真正公開出來的 benchmark 依然是固定的、帶時間戳的 snapshot。任務定義、執行環境、數據夾具、評分腳本全部鎖定。模型之間完全可以穩定比較,學術上也完全可復現。


      兩層之間通過一條五階段流水線連接:

      1. 信號采集:抓取 ClawHub Top-500 的時間戳快照,每條信號帶來源和元數據

      2. 模式聚類:將碎片化的技能名稱聚合成穩定的工作流模式——區分的不是技能的表面名稱,而是背后的用戶目標、操作對象和執行環境

      3. 家族加權:根據上游信號強度確定各任務家族的目標權重,信號越強的工作流在 release 中占比越大

      4. 種子擴展與篩選:將加權模式展開為可執行的任務候選,試跑篩選后只保留可運行、可復現、且能產生有效分數差異的候選——從 178 個生成候選篩選到 157 個

      5. 區分度優化選取:用混合整數線性規劃(MILP)從 157 個候選中選出 105 道公開任務,同時優化三個約束——發布規模、家族覆蓋、和榜單區分度

      這里的 MILP 不是在機械追求「多樣性」,而是在把三件事顯式化:公開release要有多大、每個 family 至少要被覆蓋、以及這套題要能真正拉開模型差距。把這些原本模糊的策展判斷變成可審計的約束,是 Claw-Eval-Live 讓 release 構建本身也變得透明的方式。

      當前公開 release 的規模:105道任務,22個任務家族,13個前沿模型。任務分為兩大執行環境——87道服務驅動的業務工作流(涉及CRM、郵件、日歷、財務、工單等18個受控服務)和18道本地工作空間修復任務(終端操作、環境修復、配置調試)。

      每道任務不只是一個 prompt,而是一個完整的可執行評測單元:任務定義(task.yaml)、工具接口、數據夾具、以及專屬評分腳本(grader.py),缺一不可。評分沿用 Claw-Eval 的證據錨定原則——在整個 release 中,最常見的三類確定性證據包括:數據檢索(是否調用了正確的工具和數據源)、數據準確性(實體和數值是否與 ground-truth 一致)、行動驗證(必需的狀態變更是否真的發生)。只有當這些確定性檢查無法覆蓋的語義維度(如報告組織質量、摘要連貫性)時,才引入結構化 LLM judge。

      所以,從項目演進上看,兩個工作是一脈相承的:

      Claw-Eval解決「評分可信」——讓我們看清Agent到底做了什么。

      Claw-Eval-Live解決的是「題庫跟上現實」——讓benchmark不再停留在一套固定題目上,而是持續對準當下最該測的workflow。

      當benchmark真正貼近現實

      我們看到了什么?

      13個前沿模型在當前release上的結果足夠直接,也足夠冷峻。

      整體天花板依然很低



      沒有任何模型突破70%的通過率。榜首到末尾差距達22.9個百分點。真實工作流自動化,遠沒有到「可靠部署」的階段。

      值得注意的是,通過率相近的模型,完成度可以差很遠。MiMo V2 Pro、Kimi K2.5、Gemini 3.1 Pro三個模型都是53.3%的通過率,但Overall Completion從76.9拉到74.0,這說明有些模型不是完全不會做,而是經常「差一點做完」——問題不在語言能力,而在執行閉環。

      真正有沖擊力的發現:難的不是你以為的那些


      如果只憑直覺,很多人會覺得最難的肯定是終端操作、環境修復這些需要硬核技術能力的任務。

      Claw-Eval-Live 給出的結果恰恰相反。

      從分組熱力圖看,Development / Terminal對強模型已經接近天花板:Claude Opus 4.6、GPT-5.4和Claude Sonnet 4.6在這個切面上都達到100%,最弱模型也在72.2%以上。真正困難的,是HR / People、Management / Ops以及跨系統workflow這類業務任務。HR / People這一組里,沒有模型超過 22.2%,而且有多個模型直接是0。

      進一步看細粒度family,結論更尖銳。HR的平均通過率只有6.8%;MGMT在公開pass規則下是all-fail;WORKFLOW的平均通過率也只有12.8%。相反,看上去「更技術」的workspace repair反而相對容易。整個benchmark分成兩種執行面之后,這個差異更明顯:workspace這一側,所有模型都至少達到72.2%;而service-backed workflows這一側,沒有模型超過59.8%。

      這意味著,當前 Agent 的主要瓶頸,已經不是「會不會用 terminal」,而是「能不能在多個系統之間持續收集證據、正確關聯記錄,并完成必須的寫操作」。

      論文中最能說明這個問題的,是幾個高區分度任務的表現模式。像電商月度對賬(ecommerce_monthly_reconcile)、客服首次響應時間審計(first_response_time_audit)和多文檔合并(multi_doc_merge),它們的共同特征是:必須從多個來源精確提取數據,任何一個工具調用的遺漏或實體鏈接的錯誤都會導致大幅扣分。

      以論文附錄展示的代表性子矩陣里的HR_01_onboarding為例,多個模型都能寫出體面的入職文檔,但在公開通過閾值之下。問題不是文檔是否通順,而是它沒有真正把員工信息、必需的 tool call 和任務證據閉環補齊。它更像是在「說」一件事,而不是「做完」一件事。

      這是Claw-Eval-Live最有價值的發現:今天Agent最難的地方,不是「修一個壞掉的東西」,而是「在多個系統之間,把一件業務真的做完」。

      「說得好」不等于「做得到」

      Claw-Eval-Live 的排名和通常的聊天/寫作 benchmark 排名并不一致,這恰恰是它的價值所在。

      它不獎勵「最終回答寫得多流暢」,而是獎勵跨系統證據收集、正確的記錄關聯、行動閉環和執行后狀態完整性。一個模型可以寫出極其流暢的總結,但如果它漏了必需的工具調用、遺漏了關鍵證據、或者工作空間狀態不對——在這里照樣拿不到分。這就是「can say」與「can do」的核心區別。

      再多看一眼部署視角:成本同樣重要

      如果從部署角度再看一眼榜單,估算API成本差異同樣巨大。這里強調「估算」:

      論文按記錄的輸入輸出 token 用量和發布時provider list price計算,并不等于真實賬單。

      Claude Opus 4.6準確率最高,但跑完整個 105 題 release 的估算API成本約31.6美元;GPT-5.4以約6.3美元拿到第二名,通過率只低2.9個百分點;GLM-5以約2.5美元達到與Claude Sonnet 4.6相同的61.9%通過率,估算成本約為Opus的7.8%,也就是約1/12.8。

      對真正要部署 Agent 的團隊來說,總榜只是起點,更實際的決策維度是「具體workflow家族上的準確率 × 成本」。

      從Claw-Eval到Claw-Eval-Live

      到底推進了什么?


      Claw-Eval把Agent評測從「只看結果」推進到「看過程」。它最關鍵的貢獻,是證明了如果沒有執行軌跡、審計日志和環境快照,Agent benchmark會系統性高估模型。

      Claw-Eval-Live則把Agent評測從「靜態題庫」推進到「與真實需求共同演化的任務快照」。

      它揭示了:當benchmark真正對齊現實工作流后,最好的模型也只能通過三分之二的任務;直覺上很難的終端修復其實已經接近解決,真正的瓶頸是跨系統的業務編排;HR、管理以及workflow類任務依然明顯偏難。

      這兩步缺一不可。

      沒有第一步,你可能會被一個「看起來很會做事」的 Agent 欺騙——它的報告寫得很好看,但它從來沒有真正查過那些數據。

      沒有第二步,你可能會用一套逐漸脫離現實的任務集合,得出一個看似精確但不再 relevant 的結論——你的榜單很穩定,但它在回答一個沒人再問的問題。

      如果Agent真的要走向部署,benchmark就不能只產出一張榜單。它還應該回答兩件事:這個 Agent 有沒有真的完成任務;以及我們究竟在拿什么任務定義「會干活」。

      Claw-Eval回答的是前一個問題:我們怎么知道Agent真的做成了任務。Claw-Eval-Live回答的則是后一個問題:我們究竟在拿什么任務定義「會干活」。前者為 Agent 評測打下了可信基礎;后者則把benchmark從一套靜態題庫,推進到與真實世界一起演化的任務快照。

      對今天的Agent來說,這一步尤其關鍵。因為當能力開始接近部署邊界時,真正重要的不再只是「會不會做題」,而是benchmark測的,是否還是現實世界里最值得自動化的工作流。

      如果說過去的大模型競爭更像能力展示的上半場,那么面向真實workflow的評測、驗證與部署,才是Agent benchmark的下半場真正開始的地方。

      先把Agent評測做實,再讓benchmark跟上真實世界。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      快訊!魯比奧被攔國門!中方底線絕不退讓!

      快訊!魯比奧被攔國門!中方底線絕不退讓!

      達文西看世界
      2026-05-11 12:22:44
      他信假釋出獄:與前總理女兒搭車牌“4444”的車離開,“現在什么也記不起來”

      他信假釋出獄:與前總理女兒搭車牌“4444”的車離開,“現在什么也記不起來”

      紅星新聞
      2026-05-11 15:09:20
      王浩案重現?老人猝死公交車上,家屬索要巨額賠償,法院這樣判!

      王浩案重現?老人猝死公交車上,家屬索要巨額賠償,法院這樣判!

      北緯的咖啡豆
      2026-05-11 09:31:31
      梁靖崑婆媳同框,顏值氣質不輸明星

      梁靖崑婆媳同框,顏值氣質不輸明星

      陳意小可愛
      2026-05-11 15:15:58
      外交部:為維護相關決議嚴肅性和權威性,中方決定不同意臺灣地區參加今年世衛大會

      外交部:為維護相關決議嚴肅性和權威性,中方決定不同意臺灣地區參加今年世衛大會

      澎湃新聞
      2026-05-11 15:32:33
      是誰在偷換了世界杯轉播權之爭的邏輯?

      是誰在偷換了世界杯轉播權之爭的邏輯?

      魯先生的筆
      2026-05-10 21:12:47
      曹操撩寡婦時說的金句,如今成了約會開場白,男人經常掛在嘴邊

      曹操撩寡婦時說的金句,如今成了約會開場白,男人經常掛在嘴邊

      掠影后有感
      2026-05-11 11:31:38
      出售公民信息千元一條,國家反詐平臺成內鬼搖錢樹

      出售公民信息千元一條,國家反詐平臺成內鬼搖錢樹

      高恒說
      2026-05-10 16:58:40
      中國移動通信集團四川有限公司基建工程辦公室原總經理曹江洪被查

      中國移動通信集團四川有限公司基建工程辦公室原總經理曹江洪被查

      界面新聞
      2026-05-11 14:43:08
      無法共情,理解不了

      無法共情,理解不了

      求實處
      2026-05-10 22:34:56
      悲哀!見義勇為英雄韋兆安,因無錢治療,從醫院19樓一躍而下

      悲哀!見義勇為英雄韋兆安,因無錢治療,從醫院19樓一躍而下

      莫地方
      2026-05-09 00:55:03
      直到同事離職,才知道在國企:領導中,有1個很臟但真實的潛規則

      直到同事離職,才知道在國企:領導中,有1個很臟但真實的潛規則

      細說職場
      2026-05-08 21:52:58
      麻省理工發現:喚醒孩子自律最快的方法,竟是飛輪效應!

      麻省理工發現:喚醒孩子自律最快的方法,竟是飛輪效應!

      戶外阿毽
      2026-05-10 19:24:43
      男子駕駛摩托車國道上逆行致1死,西安交警通報

      男子駕駛摩托車國道上逆行致1死,西安交警通報

      界面新聞
      2026-05-11 15:33:38
      約個"炮"花120萬,是什么體驗?

      約個"炮"花120萬,是什么體驗?

      8099999街頭巷尾
      2026-05-11 13:50:08
      女子因18元奶茶被親姐拉黑,崩潰大哭:離婚帶娃5年,都看不起我

      女子因18元奶茶被親姐拉黑,崩潰大哭:離婚帶娃5年,都看不起我

      辣媒專欄記錄
      2026-05-11 08:21:59
      張本智和回應遭梁靖崑逆轉:一切都怪我,留下了太多遺憾,金牌依然遙不可及,回家好好訓練變更強

      張本智和回應遭梁靖崑逆轉:一切都怪我,留下了太多遺憾,金牌依然遙不可及,回家好好訓練變更強

      魯中晨報
      2026-05-11 10:18:08
      賣掉格力換來的416億,被他們“敗”光了!

      賣掉格力換來的416億,被他們“敗”光了!

      犀利強哥
      2026-05-11 08:30:22
      國際乒聯發林詩棟跳上球桌視頻,日本網友炸了:非常無禮必須處罰

      國際乒聯發林詩棟跳上球桌視頻,日本網友炸了:非常無禮必須處罰

      楊華評論
      2026-05-11 14:30:27
      瘋了!9天大漲15倍,股價沖至1215,它是怎么做到不聲不響上去的

      瘋了!9天大漲15倍,股價沖至1215,它是怎么做到不聲不響上去的

      丁丁鯉史紀
      2026-05-11 15:01:25
      2026-05-11 17:16:49
      新智元 incentive-icons
      新智元
      AI產業主平臺領航智能+時代
      15183文章數 66862關注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      媒體:中美元首即將北京會晤 美方一細節耐人尋味

      頭條要聞

      媒體:中美元首即將北京會晤 美方一細節耐人尋味

      體育要聞

      尼克斯橫掃費城:唐斯恩比德的命運與角色

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協商解約

      財經要聞

      "手搓汽車"曝光:偽造證件、電池以舊代新

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      房產
      健康
      手機
      本地
      公開課

      房產要聞

      產業賦能教育!翰林府與北師大的這場簽約,絕不那么簡單!

      干細胞能讓人“返老還童”嗎

      手機要聞

      母親節文案惹爭議!OPPO再致歉,高管被問責連降兩級

      本地新聞

      用蘇繡的方式,打開江西婺源

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 中文字幕在线观看www| 亚洲精品乱码在线播放| 92自拍视频爽啪在线观看| 国产日产亚洲系列最新| 亚洲高清国产精品拍青青草原| 熟妇人妻一区二区三区四区| av在线链接| 久久丫精品系列| 国产欧美日韩久久va| 日本熟日本熟妇中文在线观看| 激情偷乱人成视频在线观看| 漂亮的保姆hd完整版免费韩国 | 999国产精品| 日韩大片高清播放器| 97在线视频免费人妻| jizzjizzjizz日本老师丝袜| 精品国产色情一区二区三区| 黄又色又污又爽又高潮| 亚洲19p| 波多野结衣一区二区三区视频 | 国产高清自产拍AV在线| 69人人| 乱子轮熟睡1区| 在线视频不卡国产在线视频不卡| 国产精品制服一区二区| 亚洲人成电影在线天堂色| 极品熟女精品| 人妻人人做人碰人人添| 人人添人人妻人人爽夜欢视频| 久久香蕉国产线熟妇人妻| 亚洲精品日韩久久精品| 中国XXXX色视频| 伊人色影院| 精品人妻少妇嫩草av专区| 国产精品福利在线观看无码卡| 亚洲第一se情网站| 最新亚洲中文字幕在线| 人人澡人摸人人添| 免费精品久久久久久中文字幕| 中文字幕在线视频免费观看| 九九久久精品无码专区|