<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      MiniMax-M2.7 開源了,本地部署指南

      0
      分享至

      MiniMax-M2.7 上月推出,時隔半個多月,剛剛開源了

      這次開源,可以發(fā)現(xiàn)很多更細(xì)節(jié)的內(nèi)容,不過我就不過多介紹了

      因為我簡單測試之后,沒達(dá)到我的預(yù)期,主要介紹一下本地部署相關(guān)的內(nèi)容吧

      我是用的 Nvidia 提供的線上測試,用例依然是閱讀理解+svg 代碼生成 + 審美

      結(jié)果是比較跌眼睛的,甚至感覺有 Qwen3 的水平

      與 GLM-5.1 半斤八兩

      它倆都遠(yuǎn)不及 Qwen3.6 Plus(僅代表本人觀點,僅此測試用例感受)


      簡介

      M2.7 的核心亮點:

      • 模型自我進(jìn)化 :M2.7 能自主更新記憶、構(gòu)建技能、改進(jìn)學(xué)習(xí)流程,經(jīng)過 100+ 輪自主優(yōu)化,性能提升 30%

      • 專業(yè)軟件工程 :SWE-Pro 達(dá)到 56.22%,與 GPT-5.3-Codex 持平,生產(chǎn)環(huán)境事故恢復(fù)時間壓縮到 3 分鐘以內(nèi)

      • 專業(yè)辦公能力 :GDPval-AA ELO 1495,開源模型最高,Word/Excel/PPT 高保真多輪編輯

      • 原生 Agent Teams :支持多智能體協(xié)作,角色穩(wěn)定、自主決策

      M2.7 模型技術(shù)規(guī)格藍(lán)圖

      代碼能力號稱媲美 GPT-5.3-Codex


      M2.7 基準(zhǔn)性能全景 部署方式:生態(tài)全面開花 M2.7 部署生態(tài)全景

      成本是 230GB 起步,我覺得 2 張 H200 可能都勉強(qiáng),官方建議至少 4 張 H200


      目前量化版本應(yīng)該都在加急中,截止此刻,還都只創(chuàng)建好了文件夾而已

      按照以往 unSloth 的戰(zhàn)績,壓縮到幾十 GB 不是難事


      MLE Bench Lite 自我進(jìn)化性能 Ollama

      Ollama 最新版 已經(jīng)有 minimax-m2.7:cloud 可以免費使用了



      M2.7 已登錄 Ollama 云端,商業(yè)許可可用

      # 與 OpenClaw 一起使用
      ollama launch openclaw --model minimax-m2.7:cloud


      # 直接聊天
      ollama run minimax-m2.7:cloud
      Ollama 支持 MiniMax M2.7

      這里要注意,目前 Ollama 上的 M2.7 走的是云端推理(:cloud 標(biāo)簽),原因是 230B 參數(shù)的 MoE 模型本地跑起來需要的顯存實在太大

      等后續(xù)量化版出來,應(yīng)該會有本地可跑的版本

      vLLM

      vLLM 提供了 Day-0 支持,是目前最成熟的部署方案之一

      # 基礎(chǔ)部署(4 卡 H200/H100/A100)
      vllm serve MiniMaxAI/MiniMax-M2.7 \
      --tensor-parallel-size 4 \
      --tool-call-parser minimax_m2 \
      --reasoning-parser minimax_m2 \
      --compilation-config '{"mode":3,"pass_config":{"fuse_minimax_qk_norm":true}}' \
      --enable-auto-tool-choice \
      --trust-remote-code


      # 8 卡部署(DP+EP 模式)
      vllm serve MiniMaxAI/MiniMax-M2.7 \
      --data-parallel-size 8 \
      --enable-expert-parallel \
      --tool-call-parser minimax_m2 \
      --reasoning-parser minimax_m2 \
      --enable-auto-tool-choice

      Docker 一鍵啟動

      docker run --gpus all \
      -p 8000:8000 \
      --ipc=host \
      -v ~/.cache/huggingface:/root/.cache/huggingface \
      vllm/vllm-openai:minimax27 MiniMaxAI/MiniMax-M2.7 \
      --tensor-parallel-size 4 \
      --tool-call-parser minimax_m2 \
      --reasoning-parser minimax_m2 \
      --enable-auto-tool-choice \
      --trust-remote-code

      vLLM 支持 NVIDIA 和 AMD 兩大平臺:

      • NVIDIA :4×H200/H100/A100 張量并行,或 8 卡 DP+EP/TP+EP 模式

      • AMD :2× 或 4× MI300X/MI325X/MI350X/MI355X,支持 AITER 加速

      系統(tǒng)需求:權(quán)重需要約 220GB 顯存,每 100 萬上下文 token 額外需要 240GB。

      SGLang

      SGLang 同樣提供了 Day-0 支持

      sglang serve \
      --model-path MiniMaxAI/MiniMax-M2.7 \
      --tp 4 \
      --tool-call-parser minimax-m2 \
      --reasoning-parser minimax-append-think \
      --trust-remote-code \
      --mem-fraction-static 0.85

      SGLang 的一個特點是支持 Thinking 模式,通過 minimax-append-think 解析器,可以把思考過程和最終內(nèi)容分開展示。

      快速測試部署是否成功:

      curl http://localhost:30000/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
      "model": "MiniMaxAI/MiniMax-M2.7",
      "messages": [
      {"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
      {"role": "user", "content": [{"type": "text", "text": "Who won the world series in 2020?"}]}
      ]
      }'

      M2.7 在 SGLang 上的推薦推理參數(shù):temperature=1.0,top_p=0.95,top_k=40。

      NVIDIA 加持

      NVIDIA 這次給了 MiniMax 很大的支持力度


      NVIDIA 支持 MiniMax M2.7

      GPU 加速端點:在 build.nvidia.com/minimaxai/minimax-m2.7 可以免費試用 M2.7

      推理優(yōu)化:NVIDIA 和開源社區(qū)合作,為 vLLM 和 SGLang 做了兩個關(guān)鍵優(yōu)化:

      1. QK RMS Norm Kernel :將計算和通信操作融合到單個內(nèi)核中,減少了內(nèi)核啟動和顯存讀寫開銷

      2. FP8 MoE :集成了 TensorRT-LLM 的 FP8 MoE 模塊化內(nèi)核,專門針對 MoE 模型優(yōu)化

      結(jié)果非常驚人——在 NVIDIA Blackwell Ultra GPU 上:

      • vLLM 吞吐量提升 2.5 倍 (一個月內(nèi)實現(xiàn))

      • SGLang 吞吐量提升 2.7 倍 (一個月內(nèi)實現(xiàn))

      NemoClaw:NVIDIA 提供了開源參考棧 NemoClaw,一鍵部署 OpenClaw 持續(xù)運行助手

      微調(diào)支持:通過 NeMo AutoModel 庫進(jìn)行后訓(xùn)練,支持 EP + PP 訓(xùn)練方案。NeMo RL 庫還提供了 GRPO 強(qiáng)化學(xué)習(xí)的樣例配方(8K 和 16K 序列長度)

      微調(diào)配方:

      # NeMo AutoModel 微調(diào)配方
      https://github.com/NVIDIA-NeMo/Automodel/blob/main/examples/llm_finetune/minimax_m2/minimax_m2.7_hellaswag_pp.yaml


      # 分布式訓(xùn)練文檔
      https://github.com/NVIDIA-NeMo/Automodel/discussions/1786
      Transformers

      也可以用 HuggingFace Transformers 直接加載模型,參考 Transformers 部署指南 (huggingface.co/MiniMaxAI/MiniMax-M2.7/blob/main/docs/transformers_deploy_guide.md)

      ModelScope

      國內(nèi)用戶也可以從 ModelScope(modelscope.cn/models/MiniMax/MiniMax-M2.7) 下載模型權(quán)重

      Tool Calling 和 Thinking 模式

      M2.7 同時支持工具調(diào)用和思考模式,這讓它在 Agent 場景下更加靈活。

      工具調(diào)用示例(以 SGLang 為例):

      from openai import OpenAI

      client = OpenAI(
      base_url="http://localhost:30000/v1",
      api_key="EMPTY"
      )

      tools = [
      {
      "type": "function",
      "function": {
      "name": "get_weather",
      "description": "Get the current weather for a location",
      "parameters": {
      "type": "object",
      "properties": {
      "location": {
      "type": "string",
      "description": "The city name"
      }
      },
      "required": ["location"]
      }
      }
      }
      ]

      response = client.chat.completions.create(
      model="MiniMaxAI/MiniMax-M2.7",
      messages=[
      {"role": "user", "content": "What's the weather in Beijing?"}
      ],
      tools=tools
      )

      message = response.choices[0].message
      if message.tool_calls:
      for tool_call in message.tool_calls:
      print(f"Tool Call: {tool_call.function.name}")
      print(f" Arguments: {tool_call.function.arguments}")

      Thinking 模式:通過 ... 標(biāo)簽把思考過程包裹在內(nèi)容中。在流式輸出場景下,可以實時解析這些標(biāo)簽,把思考和最終回答分開展示。

      快速上手

      如果你想快速體驗 M2.7,最簡單的方式:

      方式一:API 調(diào)用

      訪問 platform.minimax.io 注冊開發(fā)者賬號,通過 API 調(diào)用。

      方式二:MiniMax Agent

      訪問 agent.minimax.io 直接在線對話。

      方式三:Ollama 云端

      ollama run minimax-m2.7:cloud

      方式四:NVIDIA 免費端點

      訪問 build.nvidia.com/minimaxai/minimax-m2.7 在瀏覽器中直接測試。

      .7

      制作不易,如果這篇文章覺得對你有用,可否點個關(guān)注。給我個三連擊:點贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      永久協(xié)議終簽署!中國西部再無戰(zhàn)火,歐亞大陸迎來歷史新篇

      永久協(xié)議終簽署!中國西部再無戰(zhàn)火,歐亞大陸迎來歷史新篇

      王二哥老搞笑
      2026-05-08 08:42:32
      松島輝空這是多么嫌棄張本智和!在頒獎典禮上,張本智別提多高興了,但松島輝空卻是一臉的不高興

      松島輝空這是多么嫌棄張本智和!在頒獎典禮上,張本智別提多高興了,但松島輝空卻是一臉的不高興

      乒乓助手
      2026-05-13 00:06:34
      但斌:一個被低估的時代主線,未來幾年CPU增長或遠(yuǎn)超GPU!

      但斌:一個被低估的時代主線,未來幾年CPU增長或遠(yuǎn)超GPU!

      呼呼歷史論
      2026-05-12 18:22:34
      上海交通大學(xué)醫(yī)學(xué)院附屬仁濟(jì)醫(yī)院房靜遠(yuǎn)院士/錢縉研究員課題組誠聘博士后(長期有效)

      上海交通大學(xué)醫(yī)學(xué)院附屬仁濟(jì)醫(yī)院房靜遠(yuǎn)院士/錢縉研究員課題組誠聘博士后(長期有效)

      BioArt
      2026-05-12 08:09:41
      美媒:雄鹿&維拉老板艾登斯與46歲華裔女子發(fā)生性關(guān)系,女方勒索12億美元

      美媒:雄鹿&維拉老板艾登斯與46歲華裔女子發(fā)生性關(guān)系,女方勒索12億美元

      懂球帝
      2026-05-11 09:41:18
      特朗普訪華最后關(guān)頭!74位美議員聯(lián)名致信:求別讓中國車入美

      特朗普訪華最后關(guān)頭!74位美議員聯(lián)名致信:求別讓中國車入美

      快科技
      2026-05-11 18:51:10
      北京內(nèi)線曝隱患!全程指望周琦,斯佩爾曼攻強(qiáng)守弱,麥基成笑話

      北京內(nèi)線曝隱患!全程指望周琦,斯佩爾曼攻強(qiáng)守弱,麥基成笑話

      籃球資訊達(dá)人
      2026-05-13 02:59:49
      吉利MPV新車官宣:5月19日,正式上市

      吉利MPV新車官宣:5月19日,正式上市

      科技堡壘
      2026-05-11 11:39:21
      你坐火車有過哪些奇葩經(jīng)歷?網(wǎng)友:怪自己那時候太單純!

      你坐火車有過哪些奇葩經(jīng)歷?網(wǎng)友:怪自己那時候太單純!

      夜深愛雜談
      2025-12-21 17:37:52
      被橫掃出局,雷霆揉碎了湖人建隊夢!小里去留成未來爭冠關(guān)鍵!

      被橫掃出局,雷霆揉碎了湖人建隊夢!小里去留成未來爭冠關(guān)鍵!

      夕落秋山
      2026-05-13 01:02:08
      大眾嚴(yán)選 9久相伴 一汽-大眾春季新品發(fā)布會五車齊發(fā)

      大眾嚴(yán)選 9久相伴 一汽-大眾春季新品發(fā)布會五車齊發(fā)

      車圈小晨正版
      2026-04-01 10:48:23
      如今不是美國敢不敢打中國的問題,是中國讓不讓美國打的問題了

      如今不是美國敢不敢打中國的問題,是中國讓不讓美國打的問題了

      Ck的蜜糖
      2026-05-12 18:17:32
      上海人的10條規(guī)矩,外地人看完沉默了

      上海人的10條規(guī)矩,外地人看完沉默了

      朗威談星座
      2026-05-12 17:23:14
      在巴薩奪得西甲冠軍后的慶?;顒又?,庫巴西首次官宣了女友

      在巴薩奪得西甲冠軍后的慶祝活動中,庫巴西首次官宣了女友

      懂球帝
      2026-05-12 18:00:11
      網(wǎng)紅教授鄭強(qiáng)談就業(yè)翻車,網(wǎng)友失望評價:原來你也何不食肉糜了!

      網(wǎng)紅教授鄭強(qiáng)談就業(yè)翻車,網(wǎng)友失望評價:原來你也何不食肉糜了!

      深度報
      2026-05-12 23:16:28
      蘇州一對情侶,談了7年,女子提了18次分手,分手后在街頭痛哭!

      蘇州一對情侶,談了7年,女子提了18次分手,分手后在街頭痛哭!

      川渝視覺
      2026-04-17 22:13:14
      日經(jīng)亞洲突然爆出重磅消息!中國給國內(nèi)所有芯片廠下一道"死命令"

      日經(jīng)亞洲突然爆出重磅消息!中國給國內(nèi)所有芯片廠下一道"死命令"

      阿七說史
      2026-05-11 15:23:09
      戴口罩!長春街頭已大量出現(xiàn)!

      戴口罩!長春街頭已大量出現(xiàn)!

      吉刻新聞
      2026-05-12 18:32:20
      一算嚇一跳!公務(wù)員、事業(yè)編、企退人員撫恤金真實差額

      一算嚇一跳!公務(wù)員、事業(yè)編、企退人員撫恤金真實差額

      李博世財經(jīng)
      2026-05-12 14:28:25
      Quantum Computing漲超38%

      Quantum Computing漲超38%

      每日經(jīng)濟(jì)新聞
      2026-05-12 21:56:05
      2026-05-13 04:15:00
      Ai學(xué)習(xí)的老章 incentive-icons
      Ai學(xué)習(xí)的老章
      Ai學(xué)習(xí)的老章
      3395文章數(shù) 11150關(guān)注度
      往期回顧 全部

      科技要聞

      宇樹發(fā)布載人變形機(jī)甲,定價390萬元起

      頭條要聞

      特朗普稱將同中方討論對臺軍售和黎智英案 外交部回應(yīng)

      頭條要聞

      特朗普稱將同中方討論對臺軍售和黎智英案 外交部回應(yīng)

      體育要聞

      騎士終于玩明白了?

      娛樂要聞

      白鹿風(fēng)波升級!掉粉20萬評論區(qū)淪陷

      財經(jīng)要聞

      利潤再腰斬 京東干外賣后就沒過過好日子

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達(dá)

      態(tài)度原創(chuàng)

      本地
      時尚
      房產(chǎn)
      健康
      教育

      本地新聞

      用蘇繡的方式,打開江西婺源

      普通人真該學(xué)學(xué)如何穿搭!多穿裙子比褲子更時髦,大方提氣質(zhì)

      房產(chǎn)要聞

      穗八條引爆樓市!萬博寶藏紅盤,五一勁銷出圈

      干細(xì)胞能讓人“返老還童”嗎

      教育要聞

      求求你試試「5+1+1」學(xué)習(xí)法!!!

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 国产91在线|亚洲| 久久久久久a亚洲欧洲av| 人妖福利导航| 国产偷自一区二区三区在线 | 中文字幕精品亚洲人成在线| 蜜桃av色偷偷av老熟女| 免费国产va在线视频| 国产精品99久久99久久久动漫| av电影在线观看| 亚洲 欧美 唯美 国产 伦 综合| 日韩无码av一区二区三区| 免费观看囯产自偷自拍窥自拍| 麻豆最新国产AV原创精品| 欧美性爱视频网站| 精品人妻伦九区久久aaa片| av影片免费在线观看| 91久久精品日日躁夜夜躁欧美| mm1313亚洲国产精品无吗| 爱3P| 国产亚洲精品日韩综合网| 亚洲av无码牛牛影视在线二区| 日产精品99久久久久久| 又长又大又黑又粗欧美| 亚州成人无码| 免费大片黄国产在线观看| 亚洲人成一区二区| 亚洲国产成人精品综合av| 色综合色综合色综合色欲| 影音先锋啪啪av资源网站| 国精产品一二三区传媒公司| 亚洲国产美女精品久久久| 六月丁香婷婷色狠狠久久| 制服丝袜另类专区制服| 亚洲国产精品一二三区| www.亚洲精品| 久久精品国产国产精品四凭| 2022国内精品免费福利视频| 欧美在线伊人| 在线高清免费不卡全码| 欧美午夜精品一区二区三区电影| 国产成人区在线观看视频|