![]()
新智元報道
編輯:定慧
【新智元導(dǎo)讀】OpenAI剛用Deep Research搶了先手,谷歌直接掀桌!DeepMind祭出研究智能體雙殺,Max版質(zhì)量評分從66.1%暴拉到93.3%,知識工作自動化的軍備競賽正式進(jìn)入貼身肉搏。
在AI智能體上,谷歌這次又放出了個大招。
4月末,谷歌DeepMind一口氣甩出兩款AI研究智能體。
Deep Research(標(biāo)準(zhǔn)版):追求速度和低延遲,適合實時交互
Deep Research Max(增強版):追求最大詳盡度,用擴展test-timecompute異步跑后臺大任務(wù)
兩個智能體都基于剛發(fā)布的Gemini 3.1 Pro。
![]()
谷歌CEO Pichai也親自下場站臺。
![]()
Max版在三個權(quán)威基準(zhǔn)測試中都拿到了SOTA得分:
DeepSearchQA:93.3%,綜合網(wǎng)頁研究能力
BrowseComp:85.9%,在網(wǎng)頁上定位難找事實
Humanity's Last Exam(HLE):54.6%,人類最難學(xué)科專家級題庫
![]()
這兩個智能體干的事情很直白:你給一個研究課題,它自己去網(wǎng)上扒資料、分析數(shù)據(jù)、生成帶圖表的完整報告。
標(biāo)準(zhǔn)版處理日常研究任務(wù),Max版專攻重度場景:盡職調(diào)查、競品分析、市場研報,那種過去要一個分析師團隊干兩天的活。
Max版在DeepSearchQA基準(zhǔn)上達(dá)到93.3%。
什么概念?
去年12月同一項測試,成績是66.1%。
四個月,漲了27個百分點!
Humanity's Last Exam上也從46.4%拉到54.6%,直接刷新紀(jì)錄。
有用戶表示日常版本的標(biāo)準(zhǔn)版即可代替日常的文獻(xiàn)研讀。
![]()
知識工作的自動駕駛時代
一個值得玩味的趨勢正在成型:AI研究工具正在從「輔助搜索」進(jìn)化成「自主研究」。
過去的AI搜索是你問一句、它答一段。
現(xiàn)在的研究智能體是你丟一個課題,它自己跑幾十輪搜索-分析-驗證循環(huán),最后交一份成品報告。
區(qū)別就像導(dǎo)航軟件和自動駕駛的距離。
谷歌、OpenAI、Anthropic三家同時押注這個方向。
Anthropic的Claude在代碼智能體上猛攻,OpenAI用Deep Research搶占研究場景,谷歌現(xiàn)在帶著93.3%的成績單殺回來。
Pichai親自在發(fā)布會上強調(diào)93.3%這個數(shù)字。他說這是通過增加計算資源達(dá)到的。
意味著,只需花更多的電,就能得到更準(zhǔn)的答案。
計算資源成了新的入場券。小公司買不起。獨立顧問付不起。只有大企業(yè)才付得起。
這不是工具升級。這是商業(yè)模式的代際替換。
從「摘要機器」升級成企業(yè)工作流底座
去年12月,谷歌通過Interactions API向開發(fā)者開放了Gemini Deep Research智能體,讓開發(fā)者能用上谷歌最前沿的自主研究能力。
今天,谷歌把它推到下一個臺階。
Deep Research和Deep Research Max兩款智能體都由谷歌最強的模型Gemini 3.1 Pro驅(qū)動。
![]()
Deep Research已經(jīng)不再是一個聰明的「摘要機器」了。
它現(xiàn)在是金融、生命科學(xué)、市場調(diào)研等企業(yè)級工作流的底層基礎(chǔ)設(shè)施。
它的報告本身有獨立價值,但更重要的是——它是更復(fù)雜的AI智能體工作流的第一步:深度上下文收集。
一次API調(diào)用,開發(fā)者就能觸發(fā)一次徹底的研究工作流——史上第一次,把公開網(wǎng)頁數(shù)據(jù)和你自己的專有數(shù)據(jù)流融合在一起,輸出一份專業(yè)級的、帶完整引用的分析報告。
兩款智能體,匹配不同場景
谷歌設(shè)計了兩款智能體,對應(yīng)從直接面向用戶到大規(guī)模離線處理的不同需求。
Deep Research(標(biāo)準(zhǔn)版)為速度和效率而生。
它取代了去年12月的預(yù)覽版本,顯著降低了延遲和成本,同時把質(zhì)量拉得更高。
適用場景:需要低延遲的交互式用戶界面。
![]()
Deep Research Max(增強版)為最大詳盡度和最高質(zhì)量而生。
Max利用擴展的test-timecompute(測試時計算),反復(fù)推理、檢索、精煉最終報告。
![]()
打通私有數(shù)據(jù)+原生圖表
Deep Research現(xiàn)在可以檢索:
公開網(wǎng)頁
任意遠(yuǎn)程MCP服務(wù)器
用戶上傳的文件
連接的文件存儲
或以上任意子集的組合。
這套能力是專門為專業(yè)人士每天面對的復(fù)雜受限數(shù)據(jù)宇宙設(shè)計的。
![]()
MCP協(xié)議支持(最關(guān)鍵的一項)
你可以通過MCP協(xié)議,把Deep Research安全地連接到你自定義的數(shù)據(jù)和專業(yè)數(shù)據(jù)流——比如金融數(shù)據(jù)供應(yīng)商、市場數(shù)據(jù)供應(yīng)商。
Deep Research支持任意工具定義。
這讓它從一個網(wǎng)頁檢索器升級成了能在任意專業(yè)數(shù)據(jù)倉庫里自主導(dǎo)航的智能智能體。
過去分析師吃飯的家伙(彭博、FactSet、S&PGlobal終端),現(xiàn)在AI可以直接接入、自主查詢、綜合分析。
原生圖表與信息圖
Gemini API里的Deep Research第一次——不再只生成文字,還原生生成高質(zhì)量的圖表和信息圖。
![]()
底層實現(xiàn)用HTML或Nano Banana。
動態(tài)可視化復(fù)雜數(shù)據(jù)集,直接嵌入分析報告中。
過去一個分析師用Tableau/PowerPoint做2小時的圖表,Deep Research Max直接在報告里原生生成。
不用切換工具,不用再折騰對齊。
重磅合作伙伴
為了讓這項技術(shù)在低容錯率的專業(yè)領(lǐng)域真正落地,谷歌正在和金融、生命科學(xué)等行業(yè)的初創(chuàng)公司和企業(yè)密切合作。
比如——
谷歌正在與以下三家公司合作設(shè)計MCP服務(wù)器:
FactSet(華爾街分析師標(biāo)配終端)
S&PGlobal(標(biāo)普全球評級與數(shù)據(jù))
PitchBook(私募股權(quán)與風(fēng)險投資數(shù)據(jù)庫)
讓共享客戶可以把金融數(shù)據(jù)接入Deep Research驅(qū)動的工作流,以閃電般的速度調(diào)取這些公司各自的海量數(shù)據(jù)宇宙,實現(xiàn)生產(chǎn)力的階躍式提升。
延伸解讀:FactSet+S&P+PitchBook=全球投行、PE、咨詢公司研究素材的三大上游供應(yīng)商。它們主動把自己的數(shù)據(jù)接入谷歌的AI——意味著分析師過去賴以生存的數(shù)據(jù)訂閱護(hù)城河徹底消失。
過去你因為能用上這些數(shù)據(jù)而值錢,現(xiàn)在任何一個企業(yè)訂閱了Deep Research都能用上。
如何使用
即日起,Deep Research和Deep Research Max在GeminiAPI付費層開啟公開預(yù)覽。
開發(fā)者可以訪問谷歌官方開發(fā)者文檔,通過Interactions API開始構(gòu)建。
Deep Research和Deep Research Max很快也會通過谷歌Cloud開放給初創(chuàng)公司和企業(yè)。
谷歌做好了一個能替代分析師的AI,現(xiàn)在所有企業(yè)都可以用API調(diào)用它。
參考資料:
https://blog.google/innovation-and-ai/models-and-research/gemini-models/next-generation-gemini-deep-research/?utm_source=x&utm_medium=social&utm_campaign=&utm_content=
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.