<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      Praxel Ventures:合成音頻讓印度語AI實現真實世界實體語音識別

      0
      分享至


      這項由Praxel Ventures獨立完成的研究,以預印本形式發布于2026年5月,編號為arXiv:2605.03073v1,有興趣深入了解的讀者可通過該編號在arXiv上查閱完整論文。

      **研究背景:語音識別為什么會在"報電話號碼"這件事上徹底崩潰**

      假設你是一位在印度工作的客服系統工程師,你的系統需要處理用戶打進來的電話。用戶可能用泰盧固語(Telugu)說:"我的訂單號是9876543210,地址在海得拉巴的Banjara Hills,金額是五萬盧比。"

      對人來說,這句話再普通不過。但對目前市面上最先進的語音識別系統來說,這句話簡直就是噩夢——它們能流利地轉寫泰盧固語的詩歌和新聞播報,卻往往對這類摻雜著數字串、地址、英文品牌名和金額的"混合型"話語束手無策。

      研究者把這類內容統稱為"實體密集型音頻"(entity-dense audio),指的是那些充斥著電話號碼、郵政編碼、貨幣金額、印度地址、品牌名稱以及印地語/英語混合表達的真實語音。這類內容在外賣派送、金融科技、呼叫中心等場景里無處不在,卻恰恰是現有AI系統的軟肋。

      研究團隊用一個具體數字揭示了這個問題有多嚴重。他們選取了兩個代表性系統來測試:一個是來自IIT馬德拉斯語音實驗室開源的vasista22(基于Whisper架構專門針對印度語言微調,是當前開源領域的頂尖水平),另一個是商業API服務Deepgram Nova-3(一個專為印度語言優化的商業產品)。在一組專門構造的泰盧固語實體密集測試集上,vasista22的"實體命中率"僅有0.027——也就是說,一百個實體里它只能正確識別不到三個。商業系統Deepgram的表現稍好,但也只有0.16,同樣慘不忍睹。

      這就像兩位號稱"精通廚藝"的大廚,在烤面包和做湯方面表現出色,但一旦讓他們識別菜單上的商品編號、供應商代碼和進價金額,就完全找不到北了。問題不在于他們不夠聰明,而在于他們從來沒有在這類數據上受過訓練。

      研究團隊由此提出了一個核心問題:能否用一種低成本、自動化的方式,專門為這個"實體識別盲區"生成訓練數據,并讓模型快速補上這塊短板?

      **一、核心思路:讓"文字轉語音"反過來訓練"語音轉文字"**

      這個比喻來自機械領域:飛輪是一種儲能裝置,一旦啟動就會持續旋轉,把能量一圈圈積累起來。在這個研究框架里,飛輪的轉動方式是這樣的:首先用TTS系統批量生成大量包含各種實體的合成語音,然后用這些合成語音來訓練STT模型,讓它學會識別這些在真實世界中頻繁出現的內容。整個過程不需要昂貴的人工錄音,也不需要花大量時間讓真人朗讀數千條含有電話號碼和地址的句子。

      更關鍵的是,這個"飛輪"不需要依賴任何商業API或昂貴資源——研究團隊的核心聲明是整套流程的邊際成本不超過50美元。這就好比你想教一個學生認識所有商品條形碼,但不需要花錢讓人把每個條形碼都對著麥克風念一遍,而是直接用軟件生成幾萬條朗讀錄音來訓練他,幾乎零成本。

      **二、構建"實體密集型合成音頻"語料庫:從零開始造數據**

      為了讓飛輪轉起來,研究團隊首先需要一批高質量的訓練數據。他們專門設計了一個名為EDSA(Entity-Dense Synthetic Audio,實體密集型合成音頻)的語料庫構建流程,像一條精密的生產線,每個環節都有明確分工。

      整個生產線分為三個主要階段。第一階段是"原材料準備":研究團隊為泰盧固語、印地語(Hindi)和泰米爾語(Tamil)三種語言,分別整理了六大類實體的詞典——數字串(十位電話號碼等)、貨幣金額(包括拉丁數字和印度語詞匯兩種形式,比如"?50,000"和"??? ?????",即泰盧固語的"五拉克")、印度式地址(含嵌入式門牌號和郵政編碼)、品牌名稱(嵌入印度語句子中的英文商標)、語碼混合表達(英語動詞配印度語名詞,或反之),以及專有名詞(人名和地名)。每類實體在每種語言下約有500個種子實體,數據來源是維基數據、AI4Bharat詞庫以及母語者的人工整理。

      第二階段是"批量生產句子":研究團隊使用Anthropic公司的Haiku-4.5大語言模型(一種能理解和生成文本的AI)來批量生成包含上述實體的例句。給這個AI的指令要求非常具體:生成的句子必須用原生腳本(不能亂用其他文字),句子里的實體位置必須被標注出來,句子長度在3到25個詞之間,而且實體出現在句子中的位置要有變化(不能總在句末)。經過去重和腳本純潔性過濾之后,最終存活下來22,193條有效句子,覆蓋三種語言和六大類別。這一步在Anthropic平臺上花費的費用是13.95美元。

      第三階段最有意思,也最體現研究者的工程智慧。生成了句子之后,需要把文字變成語音。但如果所有句子都用同一個TTS系統來朗讀,訓練出來的STT模型可能只會識別那個TTS系統特有的發音腔調,而不是真正學會識別實體本身。這就好比你只讓一個人朗讀所有例子,訓練出來的學生只能認出那個人的聲音,換一個人念就傻了。

      為了避免這個問題,研究團隊設計了一套"多系統合成路由"機制,把句子分配給五個不同的TTS系統來朗讀。泰盧固語和泰米爾語的非語碼混合句子交給自家開發的開源系統Praxy R6處理;印地語非語碼混合句子則用vanilla Chatterbox多語言系統;任何涉及語碼混合的句子(英語印度語混合那種)交給IndicF5處理,輸入時將文字轉寫成羅馬字母;此外還有ElevenLabs v3和Cartesia sonic-3兩個商業系統,分別使用了8個和12個不同聲線的聲音。整體分配比例是60%給Praxy,20%給ElevenLabs,20%給Cartesia。

      在生成語音之后,還有一道質量控制關卡:用vasista22(那個被當作基線的開源模型)來"試聽"每一條合成語音,如果識別出來的字符錯誤率超過50%,這條語音就會被丟棄——因為連基線模型都聽不懂的錄音,對訓練來說價值有限。這道過濾大約淘汰了10%到15%的素材。經過所有過濾之后,最終得到約19,500條音頻,總時長約22小時,分布在三種語言和五個TTS系統之間。

      研究團隊還在整個過程中發現并修正了一個微妙的數據錯誤。早期版本的標注存在"數字形式不匹配"問題:文本標注寫的是"OTP 54235",但TTS系統朗讀出來的是"五拉克四萬兩千三百五十"(因為TTS內部把數字展開成了大寫形式)。如果用原始標注來訓練,模型就會在音頻內容和文字之間學到錯誤的對應關系。研究團隊發現這個問題后,對約5,174條涉及數字的句子進行了重寫,把所有數字串改成對應語言的拼寫形式,確保文字標注和實際發音內容一致。

      最后一個關鍵設計是"實驗組與對照組分離":所有來自Cartesia系統的約1,270條音頻被完整地從訓練集中抽出,專門留作測試集。這樣一來,模型在訓練時完全沒有見過Cartesia的聲音風格,測試時才能真正衡量它學到的是"識別實體的能力",而不是"模仿Cartesia聲音的能力"。

      **三、用LoRA技術給模型做"定向強化":最低成本的精準升級**

      有了語料庫之后,下一步是如何用這批數據來提升模型的能力。研究團隊選擇了一種叫做LoRA(Low-Rank Adaptation,低秩適應)的技術。

      普通的模型訓練需要更新模型里所有的參數,就像把一棟大樓的每一塊磚都重新燒制;而LoRA只在原有模型旁邊加上一組輕薄的"適配層",就像在大樓的關鍵承重柱上再套一層鋼結構,整體框架不動,但針對性地強化了特定功能。這樣做的好處是速度快、成本低,而且不會破壞模型原有的基礎能力。

      研究團隊實際上訓練了兩套LoRA模型。第一套叫Praxy-STT-r2,是在原版Whisper-large-v3基礎上加的適配層,主要目的是修復泰盧固語的"腳本崩潰"問題(這個問題后面會詳細說)。第二套是正式的核心成果,叫Praxy-STT-rb,是在vasista22這個已經針對印度語言優化過的模型上再加一層實體密集型適配——相當于在已經會說印度語的基礎上,專門強化"聽懂電話號碼和品牌名"的能力。

      兩套模型的訓練配置有一些關鍵差異。在Praxy-STT-rb的訓練中,學習率被刻意設得比較低,只有4×10??,這是因為vasista22已經經過了大量訓練,如果學習率太高,新數據的沖擊可能會讓模型"忘掉"原來學會的閱讀朗讀識別能力,就像一個熟練的廚師被強行改造成專職糕點師,反而把原來的炒菜手藝給丟了。為了進一步防止這種"災難性遺忘",訓練數據中特意混入了真實錄音:IndicVoices(約40小時)、Common Voice 25.0(約5到30小時不等)和FLEURS(約10小時)的真實語音,加上EDSA合成語音(約22小時),合成數據占比約在20%到30%之間。

      訓練在Modal云平臺的單塊A10G圖形處理器上進行,每個語言大約需要7小時,花費約13美元。三個語言加上評估矩陣,整個計算費用約130美元。

      **四、一把新尺子:為什么需要重新定義"識別準確率"**

      在報告結果之前,研究團隊還解決了一個容易被忽視但至關重要的問題:如何衡量"實體識別是否成功"?

      傳統語音識別用的是WER(Word Error Rate,詞錯誤率),本質上就是數錯誤的詞有多少。但這把尺子用在實體識別上非常不公平。如果系統把"五拉克"識別成了"500000",從含義上來說完全正確,但WER會判定為錯誤,因為字面上不一樣。如果系統把品牌名"Swiggy"正確認出來了,但用拉丁字母寫出來而參考答案用的是泰盧固語轉寫,WER同樣會扣分。

      為此研究團隊設計了一套叫做EHR(Entity Hit Rate,實體命中率)的新指標,針對每類實體分別制定了"算對了"的判定規則。數字串要求NFKC標準化后完全一致;郵政編碼除了標準化之外還必須是六位;貨幣金額只要數值誤差在0.5%以內就算正確,系統會同時解析拉丁數字和印度語詞匯形式的金額("lakh"、"crore"、"?????"等都能處理);品牌名稱做大小寫折疊后與別名表進行匹配;專有名詞用詞集合相似度來衡量,相似度達到0.8就算對,這樣可以容忍音譯差異;拼寫數字要求子序列保留度達到0.8;門牌號要求標準化后完全匹配。

      最終報告的指標是宏平均EHR(Macro-EHR),即各類實體的命中率簡單平均,這樣可以避免某類實體數量太多把整體結果帶偏。

      研究團隊也坦誠地指出了這個指標的局限性:EHR在類內要求形式精確匹配,跨形式的語義等價不算分。舉個例子,如果系統把參考答案里寫成泰盧固語"???? ????"(二十拉克)的內容識別成了"200000",數值完全正確,但因為參考文本里沒有拉丁數字,EHR的貨幣解析無法建立起對應關系,所以這條會被判為錯誤。研究者注意到這種情況在泰盧固語測試中反復出現,并表示未來版本會改進這一點,但當前報告的是嚴格版本的數字,這使得結果偏于保守。

      **五、實驗結果:飛輪實際轉出了多少動力**

      核心結論可以用一個簡單的對比來描述:在泰盧固語實體密集測試集(102條Cartesia語音)上,vasista22的EHR是0.027,Deepgram的EHR是0.160,而研究團隊訓練的β-Te(即Praxy-STT-rb泰盧固語版本)達到了0.473。這意味著相比開源頂尖水平提升了17倍,相比商業系統提升了約3倍。

      按類別分解來看,這個0.473是由各類實體的不同表現綜合得來的。地址類(28個樣本)的命中率高達0.786,品牌類(17個樣本)為0.529,貨幣類(12個樣本)為0.500,語碼混合類(93個樣本)為0.366。數字串和專有名詞類在這批測試集中沒有對應樣本,所以標記為不適用。

      研究團隊同時也誠實地承認,這個0.473距離他們預先設定的目標——泰盧固語EHR達到0.75——仍有相當距離。實體密集型印度語音識別遠未被"解決",當前的成果只是從接近于零的基線上邁出了一大步。

      為了驗證這個提升不只是對合成語音的"認腔認調",研究團隊特意做了一個人工錄制的小規模測試。一位泰盧固語母語者(研究團隊成員之一)用消費級麥克風在安靜環境里朗讀了20個句子,這些句子按類別平衡地從測試集中抽?。?個品牌、4個地址、3個貨幣、4個語碼混合、3個數字、2個專有名詞)。在這20個真人錄音上,β-Te的EHR達到了0.516,不僅沒有下降,還略高于合成語音上的0.473。同時,WER(詞錯誤率)是0.358,腳本保真率(后面會解釋這是什么)是0.881,與在合成語音上的表現基本持平。這個結果有力地說明,模型學到的是真正的實體識別能力,而不僅僅是某個TTS系統的聲音特征。

      跨語言結果同樣值得關注。在印地語上,vasista22的EHR是0.049,Deepgram是0.485,β-Hi是0.337——飛輪相比開源基線提升了7倍,但沒有追上商業系統。這個例外恰恰印證了一個有趣的邏輯:Deepgram在印地語實體覆蓋上明顯優于泰盧固語(0.485對比0.160),說明商業公司對印地語投入了更多專項資源。在商業系統已經有大量實體覆蓋的語言上,飛輪能補的缺口就比較有限。

      泰米爾語是最干凈的對照實驗:vasista22的EHR是0.025,Deepgram的EHR也是0.025(兩個系統幾乎同樣糟糕),而β-Ta達到了0.543,對兩個基線都實現了22倍的提升。這說明飛輪的價值正好體現在那些開源和商業系統都沒有投入的語言實體識別上。

      **六、"腳本崩潰":一個意外發現的有趣問題**

      研究團隊在實驗過程中還意外發現了一個被他們稱為"腳本崩潰"(Script Collapse)的現象,并為此引入了另一個評估指標——SFR(Script Fidelity Rate,腳本保真率),即識別結果中屬于正確語言文字系統的字符占比。

      具體來說,泰盧固語有自己獨特的文字系統,卡納達語也有,兩者看起來相似但實際不同。原版Whisper-large-v3在處理泰盧固語音頻時,有時會把輸出"滑"到卡納達文字或梵文(印地語使用的天城體字母),這種情況下轉寫結果從技術上看是合法的文字,但完全不是正確的語言,導致SFR只有0.46到0.71。

      有趣的是,在圖表數據中可以看到,原版Whisper-large-v3在泰盧固語上的EHR竟然高達0.560,比vasista22的0.027要高得多!但仔細看就會發現這是一個假象——它能"命中"實體,是因為實體里包含的數字和品牌名本來就用拉丁字母書寫,即使轉寫語言混亂,數字部分還是對的。而vasista22之所以EHR接近于零,是因為它把腳本保真率守得很好(SFR=1.000),但沒學過識別實體本身。換句話說,前者是"字寫錯了但數字對了",后者是"字寫對了但數字一個都認不出來"。

      研究團隊開發的Praxy-STT-r2(在原版Whisper-large-v3上加LoRA適配層)把泰盧固語的SFR從0.46~0.71提升到了0.81~0.97,同時WER也大幅改善。但這里有一個重要的警告:同樣的LoRA配方用在印地語和泰米爾語上,效果完全相反。這兩種語言的原版Whisper-large-v3根本不存在腳本崩潰問題(SFR始終≥0.98),強行加上LoRA之后不僅沒有改善,還讓WER惡化了20%到160%,SFR甚至跌到0.43。

      這個發現催生了一個實用的工程建議:在決定是否對某個語言做LoRA微調之前,先用30條樣本測一下原版模型的SFR。只有當SFR在兩個以上測試集上都低于0.85時,才應該啟用這套修復配方;否則就是畫蛇添足,反而會破壞原本正常運作的系統。

      **七、開源模型與商業系統在普通朗讀上的正面較量**

      除了實體密集場景,研究團隊也比較了vasista22和Deepgram在普通朗讀語音上的表現,使用了三個獨立測試集:FLEURS(100條標準朗讀片段)、Common Voice 25.0(86到3326條志愿者錄音不等)和IndicVoices-General(100條對話/即興發言片段)。

      結果相當有趣:在不屬于vasista22訓練集的測試數據上,開源模型大約在一半的測試格中贏過或追平了商業系統。印地語CV25表現出了最大的開源優勢(vasista22 0.278對比Deepgram 0.363)。泰米爾語在CV25格中Deepgram明顯更好(0.246對比0.455),但在IV對話格中幾乎持平。

      值得一提的是,Deepgram在印地語上有一個腳本保真率問題:它的SFR在每個測試集上都只有0.83到0.87,這意味著它偶爾會用拉丁字母來轉寫印地語——而這個失誤是vasista22從來不會犯的。總體來看,"商業溢價"在普通朗讀場景下并不能保證全面勝出,開源系統在大約一半的測試條件下是有競爭力的替代方案。

      **八、消融實驗:證明合成數據才是真正的"秘密武器"**

      為了徹底證明提升來自EDSA語料庫本身,而不只是LoRA這個訓練技術的功勞,研究團隊做了一個對照實驗:用完全相同的LoRA配方,但把訓練數據換成FLEURS-Te的朗讀語音(約2,281條,不含任何實體密集合成音頻),然后在同一批Cartesia測試集上測試。

      結果一目了然:使用FLEURS朗讀數據訓練的LoRA,在實體密集測試集上的EHR是0.020,比vasista22基線的0.027還略低。換句話說,LoRA這個工具本身并不會憑空產生實體識別能力,它只是一個傳導機制——真正起作用的是EDSA合成語料庫提供的訓練信號。兩者加在一起才產生了0.473的結果,去掉任何一個,實體識別能力就不復存在。

      **九、真實的成本賬單:50美元能買到什么**

      研究團隊在論文末尾列出了經過審計的真實支出:Anthropic Haiku-4.5用于生成實體文本花費13.95美元,Modal云平臺的語料合成加上六套LoRA訓練加上完整的評估矩陣共花費約130美元,Deepgram Nova-3的商業基線測試花費約5美元,ElevenLabs和Cartesia的合成部分使用的是免費額度。整個項目的實際總支出約241美元。

      研究者特別指出,如果去掉商業TTS系統(ElevenLabs和Cartesia),只使用開源的Praxy R6和IndicF5來生成語音,系統的多樣性會有所降低,但邊際成本可以控制在50美元以下(主要是Modal的計算時間)。相比之下,如果用雇人來錄制同等規模(22小時)的印度語實體密集語音,按印度市場標準報價約每分鐘0.50美元,總成本約660美元,而且還要考慮數據質量控制和轉錄核驗的額外時間。合成數據路徑在成本上低了一到兩個數量級,同時還保留了可控的數據質量過濾機制。

      **十、誠實面對的局限性**

      研究團隊在論文的限制部分花了相當多篇幅,列舉了這項研究的真實局限,讀來頗為誠實。

      首先,核心測試集只有102條合成語音(每語言),樣本規模較小,無法代表工業部署所需的統計可信度。人工錄制的驗證只有20條句子,且來自單一說話者。研究者明確表示v2版本計劃委托Karya平臺進行多說話者、多錄音環境的人工錄制,這才是真正嚴格的遷移驗證。

      其次,整個體系沒有匯報置信區間。研究結果的方向性是穩定的(多個測試集都指向同樣的結論),但各格的具體數值存在未經正式量化的不確定性。

      第三,商業系統只對比了Deepgram一家。ElevenLabs Scribe因為速率限制無法測試,Sarvam STT在評估時API狀態不明確,所以都被排除了。此外,Deepgram開啟了智能格式化(smart_format=true),會自動調整大小寫和標點,這與其他系統的輸出格式不完全對等,給跨系統比較帶來了殘余誤差。

      第四,實體密集測試集中有些類別(數字串、專有名詞)在Cartesia持出集里的樣本數為零,導致那些類別的per-class EHR無法報告。

      第五,LoRA配方還有大量消融實驗沒做:比如合成數據比例從10%到90%的梯度測試、不同真實數據來源組合的效果對比。以研究團隊當前的計算預算,這些實驗(大約24次重訓練)無法負擔,所以沒有進行。

      飛輪的轉速還遠不夠快——三種語言的EHR全部低于預先設定的目標(泰盧固語0.75、印地語和泰米爾語0.65),但從接近于零到0.337~0.543,這個跨越已經證明了方向是對的。對于那些需要在真實業務場景中處理印度語言語音的工程團隊來說,這套以不到250美元總成本完成的方法論,或許比任何一個現有的商業API都更值得認真參考。

      更宏觀地看,這項研究給語音識別領域提出了一個值得持續思考的問題:當普通朗讀場景已經接近飽和,下一個真正需要被解決的問題是什么?研究者的答案是:那些真實用戶每天在說,但訓練數據里幾乎不存在的內容。不管是印度的電話號碼,還是其他任何語言的專業術語和領域實體,這個"實體盲區"問題都不是印度語音識別獨有的挑戰,而是整個低資源、專業領域語音識別的共同困境。

      有興趣深入研究這個課題的讀者,可以通過arXiv編號2605.03073查閱完整論文,也可以在GitHub上找到研究團隊開放的全部代碼、測試集、預測結果、EDSA語料庫和實體詞典(代碼使用MIT許可證,數據使用CC-BY-4.0許可證)。六套LoRA適配器權重也在HuggingFace上以Apache-2.0許可證公開發布,可以直接下載使用或進行二次研究。

      Q&A

      Q1:實體命中率(EHR)和傳統詞錯誤率(WER)有什么區別?

      A:傳統詞錯誤率只看字面是否匹配,把"五拉克"和"500000"當成完全不同的答案。EHR專為實體識別設計,能識別語義等價的不同表達形式:貨幣金額只要數值誤差在0.5%以內就算對,品牌名允許大小寫變化,專有名詞允許音譯差異。這樣才能公平衡量模型是否真正"聽懂"了實體內容,而不只是字面復述。

      A:如果全部訓練數據都來自同一個合成系統,STT模型可能只學會識別那個系統特有的發音腔調和聲學特征,換一個聲音來源就會失效。使用Praxy R6、Chatterbox、IndicF5、ElevenLabs和Cartesia五個系統,每個系統有不同的聲線和聲學分布,訓練出的模型泛化能力更強,能應對不同說話者的真實語音。

      Q3:為什么對印地語和泰米爾語做LoRA微調會讓識別效果變差?

      A:原版Whisper-large-v3在印地語和泰米爾語上本來就沒有"腳本崩潰"問題,腳本保真率已經接近100%,模型運行良好。強行加上針對腳本修復設計的LoRA,相當于對一個正常工作的系統做了不必要的改造,引入了干擾而沒有解決任何實際問題,結果詞錯誤率惡化了20%到160%,腳本保真率反而下降。這個發現說明LoRA腳本修復配方只在存在真實腳本崩潰問題的語言(如泰盧固語)上才應該使用。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      姚來英已任中國煙草總公司總經理

      姚來英已任中國煙草總公司總經理

      界面新聞
      2026-05-12 11:12:28
      叔叔去鎮里蓋章被卡2天,我把鎮長叫來:今天不蓋,就別當鎮長了

      叔叔去鎮里蓋章被卡2天,我把鎮長叫來:今天不蓋,就別當鎮長了

      時尚的弄潮
      2026-05-12 11:56:49
      專家:女性生育力“余額”無聲流失,35歲后呈斷崖式下降

      專家:女性生育力“余額”無聲流失,35歲后呈斷崖式下降

      南方都市報
      2026-05-12 08:48:40
      河南55歲女子跟鄰居吵架后越想越氣,頭痛嘔吐緊急送醫不幸去世:血壓飆升引發腦干出血

      河南55歲女子跟鄰居吵架后越想越氣,頭痛嘔吐緊急送醫不幸去世:血壓飆升引發腦干出血

      大象新聞
      2026-05-12 14:46:07
      追覓CEO俞浩:聽說某知名科技新貴喜歡看美女,來,滿足你

      追覓CEO俞浩:聽說某知名科技新貴喜歡看美女,來,滿足你

      財聞
      2026-05-12 14:53:07
      詹姆斯正式回應是否退役:我還沒想清楚 會和家人商量再做決定

      詹姆斯正式回應是否退役:我還沒想清楚 會和家人商量再做決定

      醉臥浮生
      2026-05-12 14:38:26
      哈佛博士:大幅提高人類壽命的真正原因,所有人都沒想到!

      哈佛博士:大幅提高人類壽命的真正原因,所有人都沒想到!

      深度報
      2026-05-10 22:38:11
      女司機致2死6傷后續!知情人爆料:女子系專家級醫生,持駕照多年

      女司機致2死6傷后續!知情人爆料:女子系專家級醫生,持駕照多年

      千言娛樂記
      2026-05-12 15:13:39
      浙大鄭強教授:我不承認中國大學生就業難,是舒服的工作難找,建議少點抱怨少點索取

      浙大鄭強教授:我不承認中國大學生就業難,是舒服的工作難找,建議少點抱怨少點索取

      TOP大學來了
      2026-05-11 16:39:00
      電池安全,需要一次徹底的“證偽”

      電池安全,需要一次徹底的“證偽”

      汽車公社
      2026-05-08 08:39:52
      廣東明后天雨勢較強 珠三角等局地有大暴雨或特大暴雨并伴強對流

      廣東明后天雨勢較強 珠三角等局地有大暴雨或特大暴雨并伴強對流

      北青網-北京青年報
      2026-05-12 15:54:02
      徹底撕破臉!央視硬剛天價轉播費后,資本報復手段簡直不堪入目

      徹底撕破臉!央視硬剛天價轉播費后,資本報復手段簡直不堪入目

      真的好愛你
      2026-05-12 06:49:30
      內塔尼亞胡稱“不喜歡中國向伊朗導彈制造提供的支持” 中方回應

      內塔尼亞胡稱“不喜歡中國向伊朗導彈制造提供的支持” 中方回應

      財聯社
      2026-05-12 15:27:18
      伊朗:已將高濃縮鈾送往第三國!若談判失敗,伊朗會將其取回

      伊朗:已將高濃縮鈾送往第三國!若談判失敗,伊朗會將其取回

      AI商業論
      2026-05-11 08:36:11
      重慶57歲主任醫師車禍致2死6傷!正面照曝出,丈夫身份浮出水面

      重慶57歲主任醫師車禍致2死6傷!正面照曝出,丈夫身份浮出水面

      老貓觀點
      2026-05-12 06:43:00
      這和不穿有啥區別?內衣外穿,趙露思演唱會“辣眼”穿搭,被眾嘲

      這和不穿有啥區別?內衣外穿,趙露思演唱會“辣眼”穿搭,被眾嘲

      以茶帶書
      2026-05-11 23:15:37
      武大開了一個壞頭

      武大開了一個壞頭

      燕梳樓頻道
      2026-05-12 12:31:28
      天壇公園:5月13日至14日暫停開放

      天壇公園:5月13日至14日暫停開放

      南方都市報
      2026-05-12 12:01:58
      女孩演出結束,將購買的禮服退掉,商家指女孩“白嫖”,女孩回應

      女孩演出結束,將購買的禮服退掉,商家指女孩“白嫖”,女孩回應

      胡侃社會百態
      2026-05-12 10:10:13
      房產圈最近最大的瓜,當屬貝殼2025年財報的發布——沒有驚喜,全是驚嚇

      房產圈最近最大的瓜,當屬貝殼2025年財報的發布——沒有驚喜,全是驚嚇

      每日質量報道網
      2026-05-11 12:04:19
      2026-05-12 17:23:00
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業世界
      8300文章數 563關注度
      往期回顧 全部

      科技要聞

      宇樹發布載人變形機甲,定價390萬元起

      頭條要聞

      學生建議吸煙區設板凳 高?;貞喝?站不住"建議戒煙

      頭條要聞

      學生建議吸煙區設板凳 高校回應:若"站不住"建議戒煙

      體育要聞

      總是掉鏈子的“倒霉蛋”,闖進了歐戰決賽

      娛樂要聞

      劉濤曬媽祖誕辰活動照 評論區變許愿池

      財經要聞

      黃仁勛真是被白宮徹底封殺了

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      親子
      教育
      游戲
      本地
      公開課

      親子要聞

      孩子如何戒賭,戒游戲癮,戒手機癮?

      教育要聞

      轉換思維,讓難題變簡單!

      《機動警察》新游今夏發售 PS5豪華版附模型

      本地新聞

      用蘇繡的方式,打開江西婺源

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产精品久久久777777| 日本xxx69| 久久人人爽人人爽人人av| 亚洲精品老司机| 亚洲日韩欧美一区二区三区| 无码av无码一区二区| 国产一区二区三精品久久久无广告 | 久久人妻中文| heyzo亚洲高清| 午夜亚洲AV日韩AV无码大全| 99视频在线| 久久三级久久国产| 欧美日韩国产的视频yw885| 在线观看成人av天堂不卡| 国产精品调教| 国产三级a三级三级| 国产精品久久久久久亚洲影视| 欧美国产日产一区二区| 少妇高潮久久77777| 在线a综合V久一区精中| 最新永久免费AV网站| 大战丰满无码人妻50p| 欧美性色黄大片手机版| 欧美成人综合色| 亚洲无线一二三四区男男| 全程粗话对白视频videos| 一本色道久久99一综合| 午夜国产小视频| 艳妇臀荡乳欲伦交换h在线观看| 91啪啪| 99激情网| 亚洲av色香蕉一区二区| 国产黄色短视频| 久久99国产精品久久99| 国产成人精品无码免费看| 亚洲熟女综合色一区二区三区| 国产av无码专区亚洲a√| 亚洲另类激情专区小说婷婷久| 国产高清又黄又嫩的免费视频网站| 99精品国产久热在线观看| 少妇被粗大的猛烈进出|