<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      八款國產AI芯片,Day0 實現 DeepSeek-V4 適配

      0
      分享至

      日前,DeepSeek最新估值超3000億,背后是這8款國產芯片力挺。

      2026年4月24日中午,DeepSeek 對外發布并開源了全新DeepSeek V4 系列模型。根據參數大小,模型分為DeepSeek-V4-Pro 1.6T 和 DeepSeek-V4-Flash 284B 兩個版本。



      眾智 FlagOS 社區第一時間完成 DeepSeek-V4 系列模型的多芯片適配與推理部署,已支持海光、沐曦、華為昇騰、摩爾線程、昆侖芯、平頭哥真武、天數智芯、英偉達、清微智能(可重構計算架構)等9種 AI 芯片,并同步提供面向開發者的模型、代碼與部署方案。特別一提的是,這是基于FlagOS生態首次在國產可重構芯片完成的千億大模型DAY0適配。這意味著,DeepSeek-V4 不再局限于少數高端硬件,通過統一開源系統軟件棧 FlagOS,能在多種 AI 芯片上快速遷移、穩定運行。對于開發者、芯片廠商和產業用戶而言,這不僅是一次模型適配,更是多元 AI 算力走向可用、易用、好用的重要一步。

      DeepSeek-V4 系列2款模型均支持百萬 Token 上下文,架構上引入混合注意力機制(CSA + HCA),在百萬 Token 場景下 Pro 相比 V3.2 僅需 27% 推理 FLOPs 和 10% KV 緩存;采用流形約束超連接(mHC)增強跨層信號傳播,并使用 Muon 優化器提升訓練收斂和穩定性。兩個模型均在 32T+ Token 上預訓練,后訓練采用兩階段范式:先通過 SFT + GRPO 強化學習培養領域專家能力,再經在線策略蒸餾統一融合。Pro-Max(最大推理模式)在代碼基準達到頂尖水平,在推理和 Agent 任務上大幅縮小與領先閉源模型的差距;Flash-Max 在給予更多推理預算時可接近 Pro 級推理性能,但受限于參數規模,在純知識類任務和復雜 Agent 工作流上略有差距。

      性能參考如下官方評測結果:



      圍繞 DeepSeek-V4 系列模型的多芯適配,此次 FlagOS 系統軟件技術棧突破了三大關鍵技術:基于 FlagGems 全量替換 DeepSeek 原版算子,實現算子層多芯片統一適配;為 o-group 采用獨立張量并行策略解鎖更多低顯存場景;完成 “FP4+FP8混合精度” 的原生權重到 FP8/BF16 的精度路徑轉換。當下,國內大規模部署的 AI 芯片,大都不支持 FP4 。英偉達也只在 Blackwell 及之后的高端芯片才支持 FP4。三項關鍵技術突破讓 DeepSeek-V4 能在當前各種廠商的主流 AI 芯片上穩定運行,不再受限于支持 FP4 和大顯存的少數高端 AI 加速卡。

      Part.01

      多芯版 DeepSeek V4 的獲取與部署

      FlagOS 技術棧為用戶提供了“開箱即用”的多芯版 DeepSeek-V4-Flash 和 DeepSeek-V4-Pro。依托 FlagOS 的統一算子庫 FlagGems、統一編譯器 FlagTree 和訓推框架 FlagScale,海光、沐曦、華為、摩爾線程(FP8)、昆侖芯、平頭哥、天數、英偉達(FP8)、清微等9款芯片已經完成 DeepSeek-V4 系列模型的跨芯適配及驗證。

      用戶在多芯片上部署 DeepSeek-V4 時,通常會先遇到幾大挑戰:算子缺失或不匹配,分布式部署多卡多節點配置復雜,模型格式與精度適配復雜。DeepSeek-V4 的原始權重多為量化格式(如 FP8),而各芯片對低精度數據類型的支持方式不一,權重轉換和適配過程繁瑣且容易出錯。為解決上述性能與部署難題,FlagOS 提供了專門的適配倉庫。

      • 一鍵啟用高性能算子庫:通過設置環境變量 USE_FLAGGEMS=1,可自動切換至 FlagGems 為 DeepSeek-V4 深度優化的算子實現,無需手動逐算子替換,大幅提升多款芯片上的開箱可用性。
      • 算法優化多卡通信:當模型并行數(MP)大于配置組數(o_groups)時,通過設置 USE_OGROUPS_COMM=1,自動啟用分組投影獨立通信組功能,精準解決 o_groups 張量切分數量限制。該倉庫還提供了單機8卡、雙機16卡的完整運行腳本(run_mp8.sh、run_node_0.sh 等),開箱即用。
      • 自動化權重轉換工具:內置純 PyTorch 實現的 convert_weight.py 腳本,能夠直接將 FP8/FP4 量化權重可靠地反量化為 BF16 格式,解決權重遷移到各種國產芯片上的兼容性問題。
      • 量化加速功能:為 MoE 專家引入 INT8 逐通道對稱量化,支持 W8A8 推理,能夠進一步降低機器資源需求,提升性能與效率,并同時提供對應的量化配置和參數轉換腳本方便用戶使用。

      GitHub倉庫地址:https://github.com/flagos-ai/DeepSeek-V4-FlagOS

      方式一:FlagOS 安裝部署

      訪問官方倉地址 https://github.com/flagos-ai/FlagGems,安裝 FlagOS 算子庫 。

      # Install base dependencies

      pip install -r requirements.txt

      pip install flag-gems==5.0.2

      訪問倉庫 https://github.com/flagos-ai/flagtree,安裝FlagOS 編譯器。

      # 安裝命令以英偉達平臺為例:

      python3 -m pip uninstall -y triton

      python3 -m pip install flagtree===0.5.0 --index-url=https://resource.flagos.net/repository/flagos-pypi-hosted/simple

      使用 DeepSeek-V4-FlagOS 代碼倉庫進行部署

      官方倉庫:https://github.com/flagos-ai/DeepSeek-V4-FlagOS

      單機(8卡):可使用如下命令,或者直接運行bash run_mp8.sh

      export USE_FLAGGEMS=1 #開啟加速

      torchrun --nproc-per-node 8 generate.py --max-new-tokens 64 --ckpt-path /path/to/model_bf16_mp8 --config config_from_bf16.json --input-file prompt.txt

      雙機(16卡)

      可使用如下命令,或者直接在Node 0上運行bash run_node_0.sh

      export NCCL_SOCKET_IFNAME=eth0

      export NCCL_IB_DISABLE=1

      export USE_FLAGGEMS=1

      export USE_OGROUPS_COMM=1

      br

      torchrun --nnodes=2 --nproc_per_node=8 --node_rank=0 --master_addr=--master_port=29500 generate.py --ckpt-path /path/to/model_bf16_mp16 --config config_from_bf16.json --input-file prompt.txt --max-new-tokens 64

      對于 Node 1 情況,可使用如下命令,或者直接在 Node 1上運行 bash run_node_1.sh

      export NCCL_SOCKET_IFNAME=eth0

      export NCCL_IB_DISABLE=1

      export USE_FLAGGEMS=1

      export USE_OGROUPS_COMM=1

      br

      torchrun --nnodes=2 --nproc_per_node=8 --node_rank=1 --master_addr=--master_port=29500 generate.py --ckpt-path /path/to/model_bf16_mp16 --config config_from_bf16.json --input-file prompt.txt --max-new-tokens 64

      方式二:直接下載模型鏡像

      用戶可以直接拉取在 FlagRelease 上發布的遷移后的模型文件、代碼和鏡像。以下是遷移適配后的幾種 AI 芯片的模型版本,開箱即用、無需遷移。

      魔搭平臺

      • 清微版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-tsingmicro-FlagOS
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-tsingmicro-FlagOS
      • 沐曦版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Pro-metax-FlagOS
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-metax-FlagOS
      • 摩爾線程版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Pro-mthreads-FlagOS
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-mthreads-FlagOS
      • 海光版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Pro-hygon-FlagOS
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-hygon-FlagOS
      • 平頭哥真武版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-zhenwu-FlagOS
      • 昆侖芯版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-kunlunxin-FlagOS
      • 華為昇騰版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Pro-ascend-FlagOS
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-ascend-FlagOS
      • 天數智芯版
      • https://modelscope.cn/models/FlagRelease/DeepSeek-V4-Flash-iluvatar-FlagOS

      HuggingFace平臺

      • 清微版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-tsingmicro-FlagOS
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-tsingmicro-FlagOS
      • 沐曦版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Pro-metax-FlagOS
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-metax-FlagOS
      • 摩爾線程版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Pro-mthreads-FlagOS
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-mthreads-FlagOS
      • 海光版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Pro-hygon-FlagOS
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-hygon-FlagOS
      • 平頭哥真武版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-zhenwu-FlagOS
      • 昆侖芯版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-kunlunxin-FlagOS
      • 華為昇騰版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Pro-ascend-FlagOS
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-ascend-FlagOS
      • 天數智芯版
      • https://huggingface.co/FlagRelease/DeepSeek-V4-Flash-iluvatar-FlagOS

      Part.02

      三大技術突破,讓 DeepSeek 實現“多芯極速適配”

      突破一:FlagGems 提供支持多元芯片的全算子替換方案,解決跨芯適配首要難題

      在對 DeepSeek V4 系列模型的多芯適配過程中,FlagGems 實現了推理鏈路中全部算子的替代。這意味著什么?

      • 徹底脫離 CUDA 算子依賴:DeepSeek V4 的 MoE 專家調度、Attention 計算、RMSNorm、TopK 路由等全部核心計算模塊,均由 FlagGems 基于 Triton/Triton-TLE語言重新實現,不調用任何 cuDNN/cuBLAS 等 NVIDIA 私有庫。
      • 無需芯片廠商逐一適配:傳統模式下,每款新模型上線,芯片廠商需要投入工程團隊做算子適配。現在通過 FlagGems + FlagTree 編譯器的組合,新模型的算子可以直接編譯到多款芯片后端,芯片廠商不需要做任何額外工作。
      • 新算子即時可用:DeepSeek V4 模型引入的新計算模式(如 o-group 相關的分組路由機制),FlagGems 已經實現了對應的新算子,并通過 FlagTree 編譯器統一編譯到所有支持的芯片后端。

      FlagGems 作為全球最大的 Triton 單一算子庫,已擁有超過400 個大模型常用算子,并已正式進入 PyTorch 基金會生態合作項目。在 40 個主流模型上,推理任務算子覆蓋度達到 90%~100%,完整支持 DeepSeek V4 的全部計算需求。

      突破二:為o-group采用獨立并行策略,解除張量并行最多單機8卡限制

      DeepSeek V4 為了進一步降低計算開銷采用了分組輸出投影技術(Grouped Output Projection),配置為o_group=8,這導致在傳統的張量并行時候,最多切8份。而當前一些主流國產芯片的單卡顯存為 32GB 或 64GB,尤其在BF16格式情況下,需要張量并行大于8份才能放的下。為了解除這個限制,FlagOS 專門針對 o_groups 進行了單獨張量并行策略設計和實現,確保 o_goups 切分不超過 8 份的前提下,能夠讓模型其他部分還采用經典的張量并行策略,并且實現超過 8 份的切分。通過不同的張量并行策略組合,能夠實現多于 8 臺設備的張量并行運行。

      FlagOS 對 o_group 張量并行的技術改動集中在以下方面。

      • 獨立的并行策略:獨立于已有的張量并行通信組之外,為 o-group 單獨構建所需要的張量并行通信組,確保其他模型結構張量并行切分超過 8 的情況下,o-group 的張量并行在 8 以內。
      • 參數轉換調整:對 o_group 相關的參數,也進行了對應單獨的張量并行切分處理,以確保在新的獨立張量并行策略下,也能夠被正確加載。
      • 覆蓋面擴展:這一優化能夠將 DeepSeek V4 在單獨采用張量并行策略下,將可運行芯片范圍從“僅限單機 80GB以上顯存的個別高端卡” 擴展到“多機64GB/32GB的更多主流國產芯片”,例如海光、沐曦、天數智芯等廠商的主力產品線。

      突破三:從“FP4+FP8混合精度” 到 BF16的精度轉換,打通主流芯片的計算路徑

      DeepSeek V4 模型發布時,首次采用 FP4+FP8混合精度,該精度只有在 Blackwell 及之后的英偉達最新硬件上才有支持,但當前所有國內非英偉達 AI 芯片都未能支持,只有摩爾線程原生支持了 FP8,其余依然以 BF16 為主。

      FlagOS 完成了從 FP4 到 BF16 的完整精度轉換。

      • 權重反量化:將 FP4 量化權重轉換為 BF16 格式。這不是簡單的類型轉換,而是需要根據 DeepSeek 的量化方案進行逆量化計算,確保數值精度。
      • 計算路徑重建:FP4 和 BF16 在底層計算上有本質差,FP4 的動態范圍更窄,累加精度、溢出處理策略均不同。FlagOS 對推理鏈路中的 GEMM、Attention、MoE 路由等關鍵計算節點逐一適配了 BF16 路徑。
      • 精度對齊驗證:經過標準評測集驗證,BF16 版本與 FP4 原生版本在核心能力指標上保持對齊,確保精度轉換不引入業務層面的效果損失。

      本次,FlagOS推出了FP8和BF16兩種適配版本,讓 DeepSeek V4 不局限在最新 NVIDIA 卡上,也能部署在 FP8 及 BF16 生態的其他芯片上。

      Part.03

      FlagGems開源新算子全面支持DeepSeek-V4 系列模型

      本次新發布的 DeepSeek-V4 模型共有大約 67 個算子,FlagGems已全量支持。新支持了Act Quant、hc_split_sinkhorn、FP8 MatMul、Sparse Attention、Hadamard Transform等5個新算子,實現了對 DeepSeek-V4 的全面支持,也為跨芯適配打下重要基礎。

      FlagGems高性能算子庫的下載使用

      GitCode:https://gitcode.com/flagos-ai/FlagGems/tags/v5.0.2

      Gitee: https://gitee.com/flagos-ai/FlagGems/tree/v5.0.2

      GitHub:https://github.com/flagos-ai/FlagGems/tree/v5.0.2

      為了支持更多 AI 芯片的使用,FlagOS 對 DeepSeek-V4 模型中使用的新算子使用 Triton 語言進行重新實現,基于 FlagTree 統一編譯器,性能全部超過原生性能。(以下數據是針對DeepSeek-V4-Flash的測試)



      C++ Wrapper 技術是 FlagOS 社區專門為提升基于 Triton 語言的算子內核調用效率而打造的技術。目前已經支持了該技術的芯片包括華為昇騰、寒武紀、摩爾線程、平頭哥真武、及英偉達等。使用了 C++ Wrapper 技術,在普通的 Transformers 框架下,可以顯著提升使用了 Triton 算子的模型的端到端效率,實現跨芯普適、和高效推理的雙重目標。通過端到端效果評測(NV H20,DeepSeek-V4-Flash FP8),「C++ Wrapper + Triton」 比 TileLang 快 12.24%,比 Python Wrapper 版快 40.39%。



      Part.04

      開發者極致體驗:“發布即多芯”+ “極簡部署”

      1、核心能力與原版本對齊

      經 GPQA_Diamond、AIME等權威評測集驗證,FlagOS 適配后的 DeepSeek-V4-Flash 和 DeepSeek-V4-Pro,在語言理解、復雜推理、代碼生成、數學計算等核心能力上,與 CUDA 原版本對齊,可放心應用于金融、教育、政企服務、代碼開發等場景,無需擔心適配導致業務效果折損。

      DeepSeek-V4-Pro 1.6T 萬億參數模型已經在摩爾線程、海光、沐曦、華為昇騰四款國產芯片完成了基于FlagOS技術棧的適配,并通過了初驗。考慮到國產芯片當前的精度支持和顯存大小,我們推出了int8的適配版本,更方便用戶的實際部署使用。



      2、極簡部署:開箱即用,底層優化無感知

      FlagOS 將核心算子庫、編譯器等技術組件前置內置到 DeepSeek-V4代碼框架中,開發者加載模型時,底層優化代碼自動生效,無需手動添加任何 FlagOS 初始化代碼。同時,基于 FlagRelease 直接提供了多芯片版本的 DeepSeek-V4-FlagOS 模型版本,標準化 Docker 鏡像 + 一鍵加速命令,解決了開發者最頭疼的環境配置、效果對齊、性能優化等問題。

      Part.05

      FlagOS 2.0 技術底座:從大模型到智能體時代的全棧升級

      DeepSeek-V4 系列模型的三重突破,依托的是 FlagOS 2.0 統一多芯片系統軟件棧的全鏈路能力。從算子層、編譯層、框架層到工具層,全鏈路為大模型跨芯適配提供技術支撐,將原本數周的適配周期縮短至數天,真正實現極速落地。



      1、高性能算子庫 FlagGems:核心算子深度適配,釋放硬件算力

      FlagGems 作為 FlagOS 核心的高性能通用大模型算子庫,基于 Triton 語言實現,針對 DeepSeek-V4推理鏈路的核心算子進行了深度適配與優化,包括 MoE 專家調度、Attention 計算、RMSNorm 等關鍵計算模塊,同時原生支持 NVIDIA、摩爾線程、沐曦、清微智能、天數等接近 20 家 AI 芯片。

      2、統一 AI 編譯器 FlagTree:一次編寫,多芯編譯

      FlagTree 是 FlagOS 面向多 AI 芯片后端的統一編譯器,基于 Triton 深度定制,可將 DeepSeek-V4的核心算子編譯為英偉達、摩爾線程等十多種不同 AI 芯片后端可識別的指令,徹底解決不同芯片編譯器生態割裂的問題,大幅降低算子跨芯片適配的開發成本。

      3、模型跨芯遷移發布工具 FlagRelease:半自動實現模型跨芯遷移與版本發布

      依托 FlagOS 全棧技術能力,FlagRelease 已完成 DeepSeek-V4在多種芯片上的模型遷移、精度對齊與版本發布,覆蓋 HuggingFace、魔搭等開源社區平臺。開發者可直接下載使用,無需自行遷移。截至本文發布,FlagRelease 已發布覆蓋 10+ 家芯片廠商、12+ 款硬件、70+ 個開源模型實例的跨芯適配版本。

      4、統一多芯片接入插件 vLLM-plugin-FL:無縫兼容原生使用習慣

      vLLM-plugin-FL 是 FlagOS 為 vLLM 推理服務框架打造的專屬插件,基于 FlagOS 統一多芯片后端開發,在完全不改變 vLLM 原生接口與用戶使用習慣的前提下,實現多芯片推理部署。目前 vLLM-plugin-FL 已經支持了清微、摩爾線程、海光、沐曦、平頭哥真武、天數智芯、昆侖芯、華為、英偉達等多家芯片。

      Part.06

      開源共建:FlagOS 持續做開發者的“跨芯適配后盾”

      當下,"異構算力協同、大模型普惠落地"已成為全球開源開發者社區的核心熱點,打破硬件生態隔離、讓大模型在不同算力平臺高效低成本運行,是無數開發者的核心訴求。FlagOS 從誕生之初就將開源開放、眾智共建刻入技術基因,始終以開發者為中心,通過全棧開源的統一系統軟件棧,把復雜的"M×N"硬件適配問題降維為"M+N",做每一位開發者最可靠的跨芯適配后盾。

      全棧開源無保留,把技術主動權交給開發者

      目前,FlagOS 已形成完整的開源技術體系,所有核心組件均已開源在 GitHub,同時開放了數十款最新的主流基礎大模型、十多款 AI 芯片的適配方案與最佳實踐,開發者可自由獲取、深度定制:

      • 四大核心技術庫: FlagGems 通用大模型算子庫、FlagTree 統一 AI 編譯器、FlagScale 訓練推理并行框架、FlagCX 統一通信庫,覆蓋算子開發、編譯優化、并行計算、跨芯片通信全鏈路;
      • 三大開源工具平臺: FlagRelease 大模型自動遷移發版平臺、KernelGen 算子自動生成工具、FlagPerf 多芯片評測工具,提供從模型適配、性能評測到工程落地的一站式工具鏈;
      • 全場景擴展生態: vLLM-plugin-FL、Megatron-LM-FL、TransformerEngine-FL 等框架增強組件,以及 FlagOS-Robo 具身智能工具包,覆蓋大模型訓練、推理、應用全場景。

      多路徑參與共建,全層級開發者均可入局

      我們為不同技術方向、不同經驗層級的開發者,設計了低門檻、多路徑的共建方式,無論你是 AI 開發新手,還是深耕系統軟件的資深專家,都能在 FlagOS 社區找到自己的位置。

      • 新手友好型參與: 可在對應倉庫提交 Issue 反饋 bug、優化建議,或是補充完善文檔、撰寫入門教程與最佳實踐,也可參與社區技術交流、分享使用經驗,零門檻開啟開源之旅;(社區文檔參考https://docs.flagos.io/en/latest/)
      • 深度技術共建: 開發者可直接參與 FlagGems 算子開發與優化(新增算子 / 性能調優 / 新芯片后端支持)、KernelGen 算子生成流程增強、FlagTree 編譯器后端擴展等核心模塊,與社區核心開發者一起推動技術演進。
      • 生態工具貢獻: 開發者可基于 FlagOS Skills 開發面向國產芯片的 AI Agent 專業技能,幫助更多開發者通過自然語言完成芯片適配、模型部署等操作。

      文章來源:智源FlagOpen

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      王勵勤一句話暗示樊振東歸隊可能,定調“莎頭”絕對核心地位!

      王勵勤一句話暗示樊振東歸隊可能,定調“莎頭”絕對核心地位!

      十點街球體育
      2026-05-11 14:49:01
      入獄43天撕破藍營遮羞布!蔡正元隱忍發聲,馬英九終釀大錯

      入獄43天撕破藍營遮羞布!蔡正元隱忍發聲,馬英九終釀大錯

      愛看劇的阿峰
      2026-05-10 20:00:34
      母親節炸場!藍盈瑩和媽媽同框,60歲媽媽顏值狀態直接贏麻了

      母親節炸場!藍盈瑩和媽媽同框,60歲媽媽顏值狀態直接贏麻了

      樂悠悠娛樂
      2026-05-11 11:05:20
      Netflix新劇,又霸榜了

      Netflix新劇,又霸榜了

      i書與房
      2026-05-11 11:11:33
      神奇的順位!勇士隊史第九次獲得11號簽,曾選克萊和皮特魯斯

      神奇的順位!勇士隊史第九次獲得11號簽,曾選克萊和皮特魯斯

      懂球帝
      2026-05-11 14:17:20
      嫁進百億豪門,上海名媛喬欣近況曝光,出國旅游很自在32歲不生娃

      嫁進百億豪門,上海名媛喬欣近況曝光,出國旅游很自在32歲不生娃

      蒂蒂茱家
      2026-05-10 13:30:55
      中紀委連發禁令:機關事業單位職工注意,這7種飯局一參加就出局

      中紀委連發禁令:機關事業單位職工注意,這7種飯局一參加就出局

      細說職場
      2026-05-10 09:55:02
      吃他汀猝死的人增多?醫生含淚苦勸:天熱吃他汀,必須多注意4點

      吃他汀猝死的人增多?醫生含淚苦勸:天熱吃他汀,必須多注意4點

      荊醫生科普
      2026-05-08 21:10:04
      李湘瘦成了水蛇腰,臉整整小了一圈,女兒反倒胖了一圈

      李湘瘦成了水蛇腰,臉整整小了一圈,女兒反倒胖了一圈

      鄉野小珥
      2026-05-10 13:06:04
      陳數帶火了70后新穿搭:緞面襯衫+印花半身裙,時髦減齡又顯貴

      陳數帶火了70后新穿搭:緞面襯衫+印花半身裙,時髦減齡又顯貴

      民宿體驗志
      2026-05-10 14:14:12
      你以為壞了,其實都能吃的7種食物,要是扔掉就虧大了

      你以為壞了,其實都能吃的7種食物,要是扔掉就虧大了

      室內設計師有料兒
      2026-03-21 16:29:09
      妻子參加同學聚會,我扮服務員潛入,見妻子被求婚她答應,我鼓掌

      妻子參加同學聚會,我扮服務員潛入,見妻子被求婚她答應,我鼓掌

      千秋歷史
      2026-05-11 20:35:52
      夢鴿李天一赴美不歸?看到85歲李雙江“現狀”,原來楊洪基沒說謊

      夢鴿李天一赴美不歸?看到85歲李雙江“現狀”,原來楊洪基沒說謊

      阿纂看事
      2024-11-05 11:54:58
      確認不打了!CBA頂級內線慘遭棄用,或被廣東隊重金挖走?

      確認不打了!CBA頂級內線慘遭棄用,或被廣東隊重金挖走?

      緋雨兒
      2026-05-11 09:21:49
      80 后女科學家,任中國醫學科學院北京協和醫學院副院校長

      80 后女科學家,任中國醫學科學院北京協和醫學院副院校長

      生物學霸
      2026-05-11 18:14:32
      貔貅認主不看財富,這四個生肖千萬別碰,戴了反而會破財

      貔貅認主不看財富,這四個生肖千萬別碰,戴了反而會破財

      紙鳶奇譚
      2026-04-13 16:06:54
      黃仁勛拿下6個博士學位,喊話畢業生:AI是屬于你們的機會

      黃仁勛拿下6個博士學位,喊話畢業生:AI是屬于你們的機會

      第一財經資訊
      2026-05-11 21:16:11
      葉珂終于攤牌!生女兩年無名分,分手真相扯出黃曉明私生活

      葉珂終于攤牌!生女兩年無名分,分手真相扯出黃曉明私生活

      橙星文娛
      2026-05-08 09:06:29
      奪12連冠!隨著國乒3-0日本,誕生3個不可思議,還有2個不爭事實

      奪12連冠!隨著國乒3-0日本,誕生3個不可思議,還有2個不爭事實

      侃球熊弟
      2026-05-11 01:44:31
      周總理只是讓他去經商,為黨賺取經費,他卻給組織賺回個商業帝國

      周總理只是讓他去經商,為黨賺取經費,他卻給組織賺回個商業帝國

      文史達觀
      2026-04-18 09:29:56
      2026-05-11 23:04:49
      半導體行業觀察 incentive-icons
      半導體行業觀察
      專注觀察全球半導體行業資訊
      13645文章數 34909關注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      重慶一57歲女醫生駕奔馳釀車禍 操作不當致2死6傷

      頭條要聞

      重慶一57歲女醫生駕奔馳釀車禍 操作不當致2死6傷

      體育要聞

      梁靖崑:可能是最后一屆了,想讓大家記住這個我

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協商解約

      財經要聞

      宗馥莉罷免銷售負責人 部分業務將外包

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      房產
      藝術
      手機
      家居
      數碼

      房產要聞

      產業賦能教育!翰林府與北師大的這場簽約,絕不那么簡單!

      藝術要聞

      陸抑非寫竹,筆力遒勁

      手機要聞

      姜超吐槽手機圈果味太重:紅魔11S Pro透明機身跑水冷 業內獨一份

      家居要聞

      多元生活 此處無聲

      數碼要聞

      追覓推出Y-Wind31系列空調:送風距離7.2m、APF5.26能效

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 亚洲国产精品va在线播放| 18禁网站| 中文字幕人妻丰满| 国内自拍第100页| 欧美成人精品三级网站下载| 娇妻被黑人粗大高潮白浆| 亚州人妻中文| 欧美性猛交xxxx| 精品午夜国产福利观看| 狠狠色香婷婷久久亚洲精品| 亚洲精品久久7777777| av高清| 欧美老熟妇喷水| 国产玖玖玖精品视频| 国产放荡对白视频在线观看| 久久国产成人精品国产成人亚洲| 精品亚洲自拍| 亚洲黄色一区| 亚洲国产福利成人一区二区| 色狠狠久久av五月综合| 国产999久久高清免费观看| 熟女?国产| 亚洲日韩av无码一区二区三区人| 三上悠亚福利一区二区| 国产另类ts人妖一区二区| 丝袜精品在线| 中文毛片无遮挡高潮免费| 国产太嫩了在线观看| 极品粉嫩嫩模大尺度无码视频 | 无码视频在线| 日韩有码国产精品一区| 欧美a在线播放| 国产精品黄在线观看免费软件| av免费播放在线观看| 99国产亚洲精品美女久久久久| 免费黄色福利| 亚洲免费综合色在线视频 | 天堂岛国精品在线观看一区二区| 亚洲熟女av乱码在线观看漫画 | 国产视频拍拍拍| 亚洲国产麻豆一区二区三区|