<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      在 Mac 上微調(diào)一切大模型

      0
      分享至

      聊個(gè)讓我非常興奮的項(xiàng)目——mlx-tune

      一句話概括:在你的 Mac 上,用 Unsloth 的 API 微調(diào)一切

      LLM、視覺模型、TTS、STT、OCR、Embedding,全都能在 Apple Silicon 上本地微調(diào)

      Mac 用戶的微調(diào)困境

      做大模型微調(diào)的同學(xué)應(yīng)該都有過這種體驗(yàn):想在本地跑個(gè)小實(shí)驗(yàn)驗(yàn)證下 idea,結(jié)果發(fā)現(xiàn) Unsloth 依賴 Triton,而 Triton 不支持 Mac

      于是你只剩兩條路:

      1. 1. 花錢開云 GPU —— 就跑個(gè) 100 條數(shù)據(jù)的實(shí)驗(yàn),有必要嗎?

      2. 2. 用 mlx-lm 原生 API —— 但代碼和 完全不兼容,到了云上還得重寫一遍

      mlx-tune(github.com/ARahim3/mlx-tune)的作者也遇到了一模一樣的問題

      他的解決思路非常簡(jiǎn)單粗暴:把 MLX 包裝成 Unsloth 的 API

      你在 Mac 上寫的訓(xùn)練腳本,換個(gè) import 就能直接在 CUDA 集群跑

      # Unsloth (CUDA)                        # MLX-Tune (Apple Silicon)
      from unsloth import FastLanguageModel from mlx_tune import FastLanguageModel
      from trl import SFTTrainer from mlx_tune import SFTTrainer


      # 后面的代碼一模一樣!

      這才是真正解決問題的設(shè)計(jì)

      下面這張圖清楚展示了 mlx-tune 的工作流——本地原型驗(yàn)證,改個(gè) import 就能上云訓(xùn)練:


      功能有多全?看完嚇一跳

      它支持的訓(xùn)練方法比很多正經(jīng)公司的內(nèi)部工具都全:

      語言模型訓(xùn)練:

      • ? SFT :基礎(chǔ)指令微調(diào),這是最常用的

      • ? DPO / ORPO / KTO / SimPO :各種偏好學(xué)習(xí)方法全覆蓋

      • ? GRPO :DeepSeek R1 風(fēng)格的多生成 + 獎(jiǎng)勵(lì)訓(xùn)練

      • ? CPT :持續(xù)預(yù)訓(xùn)練,支持解耦學(xué)習(xí)率

      多模態(tài)訓(xùn)練:

      • ? Vision :支持 Gemma 4、Qwen3.5、PaliGemma、LLaVA、Pixtral 等 VLM 微調(diào)

      • ? TTS :Orpheus、OuteTTS、Spark-TTS、Sesame/CSM、Qwen3-TTS 五個(gè) TTS 模型

      • ? STT :Whisper、Moonshine、Qwen3-ASR、NVIDIA Canary、Voxtral 五個(gè) STT 模型

      • ? Embedding :BERT、ModernBERT、Qwen3-Embedding、Harrier,支持對(duì)比學(xué)習(xí)

      • ? OCR :DeepSeek-OCR、GLM-OCR、olmOCR、Qwen-VL,內(nèi)置 CER/WER 指標(biāo)

      進(jìn)階能力:

      • ? MoE 微調(diào) :支持 39+ 種 MoE 架構(gòu),包括 Qwen3.5-35B、Mixtral、DeepSeek 系列

      • ? Gemma 4 Audio :12 層 Conformer 音頻塔,原生處理 16kHz 音頻

      • ? LFM2 :Liquid AI 的混合卷積+GQA 架構(gòu)

      說真的,一個(gè)社區(qū)項(xiàng)目做到這個(gè)程度,相當(dāng)離譜

      全景架構(gòu)一覽——從 API 到硬件的五層設(shè)計(jì):


      快速上手

      安裝很簡(jiǎn)單,推薦用 uv:

      # 標(biāo)準(zhǔn)安裝
      uv pip install mlx-tune


      # 帶音頻支持
      uv pip install 'mlx-tune[audio]'
      brew install ffmpeg

      來個(gè)最基礎(chǔ)的 SFT 微調(diào)示例:

      from mlx_tune import FastLanguageModel, SFTTrainer, SFTConfig
      from datasets import load_dataset

      # 加載模型(4bit 量化,省顯存)
      model, tokenizer = FastLanguageModel.from_pretrained(
      model_name="mlx-community/Llama-3.2-1B-Instruct-4bit",
      max_seq_length=2048,
      load_in_4bit=True,
      )

      # 加 LoRA
      model = FastLanguageModel.get_peft_model(
      model,
      r=16,
      target_modules=["q_proj", "k_proj", "v_proj", "o_proj"],
      lora_alpha=16,
      )

      # 加載數(shù)據(jù)集
      dataset = load_dataset("yahma/alpaca-cleaned", split="train[:100]")

      # 訓(xùn)練
      trainer = SFTTrainer(
      model=model,
      train_dataset=dataset,
      tokenizer=tokenizer,
      args=SFTConfig(
      output_dir="outputs",
      per_device_train_batch_size=2,
      learning_rate=2e-4,
      max_steps=50,
      ),
      )
      trainer.train()

      # 保存:三種格式隨你選
      model.save_pretrained("lora_model") # LoRA 適配器
      model.save_pretrained_merged("merged", tokenizer) # 合并后的完整模型
      model.save_pretrained_gguf("model", tokenizer) # GGUF 格式,直接給 Ollama 用

      如果你用過 Unsloth,這代碼看著是不是特別眼熟?對(duì),就是同一套 API

      視覺模型微調(diào)

      VLM 微調(diào)也是同樣簡(jiǎn)潔的體驗(yàn):

      from mlx_tune import FastVisionModel, UnslothVisionDataCollator, VLMSFTTrainer
      from mlx_tune.vlm import VLMSFTConfig

      model, processor = FastVisionModel.from_pretrained(
      "mlx-community/Qwen3.5-0.8B-bf16",
      )

      model = FastVisionModel.get_peft_model(
      model,
      finetune_vision_layers=True, # 視覺層也微調(diào)
      finetune_language_layers=True,
      r=16, lora_alpha=16,
      )

      # 訓(xùn)練(數(shù)據(jù)集格式和 Unsloth 一致)
      FastVisionModel.for_training(model)
      trainer = VLMSFTTrainer(
      model=model,
      tokenizer=processor,
      data_collator=UnslothVisionDataCollator(model, processor),
      train_dataset=dataset,
      args=VLMSFTConfig(max_steps=30, learning_rate=2e-4),
      )
      trainer.train()

      Gemma 4、Qwen3.5、PaliGemma、LLaVA、Pixtral 都支持

      你甚至可以用 Vision GRPO 來訓(xùn)練視覺推理能力

      TTS 微調(diào):在 Mac 上克隆聲音

      這個(gè)功能我覺得特別有意思——在 Mac 上本地微調(diào) TTS 模型:

      from mlx_tune import FastTTSModel, TTSSFTTrainer, TTSSFTConfig, TTSDataCollator
      from datasets import load_dataset, Audio

      # 自動(dòng)檢測(cè)模型類型、編碼器和 token 格式
      model, tokenizer = FastTTSModel.from_pretrained(
      "mlx-community/orpheus-3b-0.1-ft-bf16"
      )
      model = FastTTSModel.get_peft_model(model, r=16, lora_alpha=16)

      dataset = load_dataset("MrDragonFox/Elise", split="train[:100]")
      dataset = dataset.cast_column("audio", Audio(sampling_rate=24000))

      trainer = TTSSFTTrainer(
      model=model, tokenizer=tokenizer,
      data_collator=TTSDataCollator(model, tokenizer),
      train_dataset=dataset,
      args=TTSSFTConfig(output_dir="./tts_output", max_steps=60),
      )
      trainer.train()

      Orpheus、OuteTTS、Spark-TTS、Sesame/CSM、Qwen3-TTS 都支持

      想做聲音克隆或者風(fēng)格化 TTS,再也不用租 GPU 了

      工作流全景

      mlx-tune 的定位非常清晰:本地原型 → 云端量產(chǎn)

      本地 Mac (mlx-tune)              云端 GPU (Unsloth)
      ├── 快速實(shí)驗(yàn) ├── 大規(guī)模訓(xùn)練
      ├── 小數(shù)據(jù)集驗(yàn)證 ├── 完整數(shù)據(jù)集
      ├── 秒級(jí)迭代 ├── 生產(chǎn)級(jí)優(yōu)化
      └── 同一套代碼 ─────────────────── └── 同一套代碼

      訓(xùn)練完還能直接導(dǎo)出:

      • ? HuggingFace 格式 :標(biāo)準(zhǔn)保存

      • ? GGUF :直接丟給 Ollama / llama.cpp

      • ? push_to_hub :一鍵推到 HuggingFace Hub

      它適合誰?

      我覺得 mlx-tune 最適合這幾類人:

      1. 1. Mac 用戶 + 微調(diào)需求 :你有 M1/M2/M3/M4/M5,想在本地跑微調(diào)實(shí)驗(yàn),這是最佳選擇

      2. 2. 混合工作流用戶 :本地調(diào)試、云端訓(xùn)練,代碼無縫遷移

      3. 3. 多模態(tài)探索者 :想同時(shí)玩 LLM、Vision、TTS、STT、OCR 微調(diào)的人

      4. 4. 學(xué)習(xí)者 :想理解微調(diào)原理,在本地快速迭代比去 Colab 排隊(duì)強(qiáng)太多

      局限性也得說清楚:

      • ? 訓(xùn)練速度肯定比不上 A100 + Unsloth,這是物理定律決定的

      • ? GGUF 導(dǎo)出對(duì)量化模型有限制,建議用非量化基座模型

      • ? 內(nèi)存受限于 Mac 的統(tǒng)一內(nèi)存(不過 Mac Studio 最高 512GB,夠用了)

      如果你是 Mac 用戶,又對(duì)微調(diào)大模型感興趣,強(qiáng)烈建議試試

      制作不易,如果這篇文章覺得對(duì)你有用,可否點(diǎn)個(gè)關(guān)注。給我個(gè)三連擊:點(diǎn)贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個(gè),謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      4死1傷!遼寧遼陽發(fā)布一起較大交通事故調(diào)查報(bào)告:韓某某駕駛過程中吸食含有丙烷、正丁烷、異丁烷成分的氣體,與重型半掛牽引車相撞

      4死1傷!遼寧遼陽發(fā)布一起較大交通事故調(diào)查報(bào)告:韓某某駕駛過程中吸食含有丙烷、正丁烷、異丁烷成分的氣體,與重型半掛牽引車相撞

      揚(yáng)子晚報(bào)
      2026-05-12 20:57:58
      干了20年殯葬,我希望所有家屬拿到骨灰后,不要把親人塞進(jìn)后備箱

      干了20年殯葬,我希望所有家屬拿到骨灰后,不要把親人塞進(jìn)后備箱

      千秋文化
      2026-05-12 20:21:18
      張本智和回到日本 當(dāng)眾懺悔:本該贏下梁靖崑 心理和技術(shù)都有問題

      張本智和回到日本 當(dāng)眾懺悔:本該贏下梁靖崑 心理和技術(shù)都有問題

      風(fēng)過鄉(xiāng)
      2026-05-12 20:36:06
      穿禮服后退款后續(xù):女子身份曝光社死,工作遭牽連,商家準(zhǔn)備起訴

      穿禮服后退款后續(xù):女子身份曝光社死,工作遭牽連,商家準(zhǔn)備起訴

      八斗小先生
      2026-05-12 17:23:09
      女子跪求丈夫諒解后續(xù):妻子被捉奸兩次,望丈夫再原諒自己一次

      女子跪求丈夫諒解后續(xù):妻子被捉奸兩次,望丈夫再原諒自己一次

      漢史趣聞
      2026-05-12 15:53:02
      中方阻斷令收意外之喜,27國(guó)開始共振,美將面臨三重“地震”

      中方阻斷令收意外之喜,27國(guó)開始共振,美將面臨三重“地震”

      鳥兒太能吃
      2026-05-11 16:27:45
      英媒蓋棺定論:特朗普未登機(jī),美國(guó)債務(wù)爆雷,時(shí)代已然終結(jié)

      英媒蓋棺定論:特朗普未登機(jī),美國(guó)債務(wù)爆雷,時(shí)代已然終結(jié)

      古事尋蹤記
      2026-05-12 07:12:15
      劉嘉玲曬法國(guó)生活,梁朝偉在老婆鏡頭下?lián)祀u蛋,兩口子生活好愜意

      劉嘉玲曬法國(guó)生活,梁朝偉在老婆鏡頭下?lián)祀u蛋,兩口子生活好愜意

      喜歡歷史的阿繁
      2026-05-12 12:12:22
      雅迪愛瑪不香了??jī)?nèi)行人透露:最值得買的6個(gè)高性價(jià)比電動(dòng)車品牌

      雅迪愛瑪不香了??jī)?nèi)行人透露:最值得買的6個(gè)高性價(jià)比電動(dòng)車品牌

      老特有話說
      2026-05-12 15:40:47
      工作中刁難群眾、吃拿卡要!珠海香洲區(qū)住建系統(tǒng)3人被查

      工作中刁難群眾、吃拿卡要!珠海香洲區(qū)住建系統(tǒng)3人被查

      南方都市報(bào)
      2026-05-12 12:00:13
      不是盟友,勝似盟友!以色列“激光盾牌”馳援阿聯(lián)酋

      不是盟友,勝似盟友!以色列“激光盾牌”馳援阿聯(lián)酋

      上觀新聞
      2026-05-12 15:48:11
      1940年最完美的暗殺:“23名保鏢貼身保護(hù),但腦袋卻被人砍掉”

      1940年最完美的暗殺:“23名保鏢貼身保護(hù),但腦袋卻被人砍掉”

      紀(jì)實(shí)文錄
      2025-05-08 16:15:44
      國(guó)際足聯(lián)輸了,他輸給的不是電視轉(zhuǎn)播,他輸給了中國(guó)球迷!

      國(guó)際足聯(lián)輸了,他輸給的不是電視轉(zhuǎn)播,他輸給了中國(guó)球迷!

      故事終將光明磊落
      2026-05-12 14:04:16
      男團(tuán)、女團(tuán)奪冠僅1天,韓媒、日媒接連發(fā)聲銳評(píng),態(tài)度出奇一致

      男團(tuán)、女團(tuán)奪冠僅1天,韓媒、日媒接連發(fā)聲銳評(píng),態(tài)度出奇一致

      夢(mèng)醉為紅顏一笑
      2026-05-12 11:54:46
      多名家長(zhǎng)反映成都又一幼兒園將閉園 教育局回應(yīng)

      多名家長(zhǎng)反映成都又一幼兒園將閉園 教育局回應(yīng)

      天府觀察
      2026-05-11 15:59:43
      疫情向十多國(guó)擴(kuò)散?美國(guó)放走漢坦病毒感染者,開始給全世界埋雷?

      疫情向十多國(guó)擴(kuò)散?美國(guó)放走漢坦病毒感染者,開始給全世界埋雷?

      明天見灌裝冰塊
      2026-05-12 21:10:57
      53歲古巨基首曬半歲次子,大眼仔呆萌可愛,表白57歲太太:相守30年,你最偉大

      53歲古巨基首曬半歲次子,大眼仔呆萌可愛,表白57歲太太:相守30年,你最偉大

      手工制作阿殲
      2026-05-12 15:36:56
      美國(guó)體操丑聞再爆發(fā)!教練暗藏?cái)z像頭,偷拍6至14歲少女換衣

      美國(guó)體操丑聞再爆發(fā)!教練暗藏?cái)z像頭,偷拍6至14歲少女換衣

      夜白侃球
      2026-05-12 10:32:21
      有100萬存款的家庭,日子過得咋樣?網(wǎng)友分享讓人大跌眼鏡!

      有100萬存款的家庭,日子過得咋樣?網(wǎng)友分享讓人大跌眼鏡!

      夜深愛雜談
      2026-03-02 22:37:17
      50歲才醒悟:飯局上,領(lǐng)導(dǎo)低聲對(duì)你說“去把賬結(jié)了”,千萬別說“好”,聰明人都這么辦

      50歲才醒悟:飯局上,領(lǐng)導(dǎo)低聲對(duì)你說“去把賬結(jié)了”,千萬別說“好”,聰明人都這么辦

      心理觀察局
      2026-05-12 09:39:11
      2026-05-13 00:47:00
      Ai學(xué)習(xí)的老章 incentive-icons
      Ai學(xué)習(xí)的老章
      Ai學(xué)習(xí)的老章
      3395文章數(shù) 11150關(guān)注度
      往期回顧 全部

      科技要聞

      宇樹發(fā)布載人變形機(jī)甲,定價(jià)390萬元起

      頭條要聞

      特朗普稱將同中方討論對(duì)臺(tái)軍售和黎智英案 外交部回應(yīng)

      頭條要聞

      特朗普稱將同中方討論對(duì)臺(tái)軍售和黎智英案 外交部回應(yīng)

      體育要聞

      騎士終于玩明白了?

      娛樂要聞

      白鹿風(fēng)波升級(jí)!掉粉20萬評(píng)論區(qū)淪陷

      財(cái)經(jīng)要聞

      利潤(rùn)再腰斬 京東干外賣后就沒過過好日子

      汽車要聞

      吉利銀河“TT”申報(bào)圖曝光 電動(dòng)尾翼+激光雷達(dá)

      態(tài)度原創(chuàng)

      健康
      時(shí)尚
      數(shù)碼
      教育
      公開課

      干細(xì)胞能讓人“返老還童”嗎

      普通人真該學(xué)學(xué)如何穿搭!多穿裙子比褲子更時(shí)髦,大方提氣質(zhì)

      數(shù)碼要聞

      2000W電源來了!AI工作站供電新選擇

      教育要聞

      求求你試試「5+1+1」學(xué)習(xí)法!!!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 美女网站视频一区| 亚洲AV无码一区二区三区天堂网| 国产在线啪| 午夜色无码大片在线观看免费| 中文字幕有码在线观看| 精品国产三级大全在线观看| 亚洲色欲色欲WWW成人网| 午夜黄色| 日本高清在线天码一区播放| 国产成人亚洲老熟女精品| 202丰满熟女妇大| 国产亚洲精品午夜高清影院| 狠狠综合久久综合88亚洲| 亚洲国产高清第一第二区| 人妻巨大乳挤奶水hd免费看| 国产成人AV免费网址| 亚洲第一福利导航| 国产视频网站在线观看| 国产精品欧美成人片| 午夜三级a三级三点窝| 狠狠色丁婷婷综合久久| 成人综合婷婷国产精品久久| 欧美性极品| 国产av成人精品播放| 成人无码特黄特黄AV片在线| 国产午夜精品美女免费大片| 正在播放酒店约少妇高潮| 91在线观看免费高清| 国产成人免费无码AV在线播放| 国产精品久久久久久久影院| 午夜福利视频合集1000| 老子午夜精品无码不卡| 国产一区二区丝袜在线播放国产日韩欧美色综合 | 无码专区 人妻系列 在线| 国产精品久久| 茄子视频国产在线观看| 无码人妻久久一区二区三区| 亚洲精品乱码97久久久 | 国产一级α片| 日韩天码| 久久天天躁狠狠躁夜夜2020|