<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      Qwen3.5微調教程,從零到部署全打通

      0
      分享至

      Qwen3.5 是開源社區的香餑餑,Unsloth 第一時間跟進了完整的微調支持

      我花了兩天研究了他們的文檔和 Colab 筆記本,整理出這份從零到一的微調教程

      0.8B 到 122B 全尺寸覆蓋,文本、視覺、強化學習三條路線全打通

      Qwen3.5 微調概覽

      先說結論:Qwen3.5 + Unsloth 是目前性價比最高的開源模型微調方案。

      核心優勢:

      • 訓練速度比標準 FA2快 1.5 倍

      • 顯存占用減少 50%

      • 支持 0.8B、2B、4B、9B、27B、35B-A3B、122B-A10B全系列

      • 支持文本 SFT、視覺微調、強化學習(GRPO)三條路線

      • 導出格式豐富:GGUF(Ollama)、vLLM、LoRA 適配器

      • 支持201 種語言的多語言微調

      各模型 bf16 LoRA 顯存需求:

      模型

      顯存

      0.8B

      3GB

      2B

      5GB

      4B

      10GB

      9B

      22GB

      27B

      56GB

      35B-A3B(MoE)

      74GB


      Qwen3.5 bf16 LoRA 顯存需求

      重要提醒:

      • ??必須用 transformers v5,舊版不行

      • ??不建議對 Qwen3.5 使用 QLoRA(4-bit)訓練——量化差異高于正常水平

      • ?? MoE 模型(35B-A3B / 122B-A10B)推薦用 bf16 LoRA,不要用 QLoRA

      方式一:Unsloth Studio(無代碼方案)

      如果你不想寫一行代碼,Unsloth 新推出的開源 Web UI ——Unsloth Studio是最佳選擇。

      安裝(MacOS / Linux / WSL):

      curl -fsSL https://unsloth.ai/install.sh | sh

      Windows PowerShell:

      irm https://unsloth.ai/install.ps1 | iex

      安裝很快,大約 1-2 分鐘。然后啟動:

      unsloth studio -H 0.0.0.0 -p 8888

      瀏覽器打開http://localhost:8888,首次登錄設置密碼后就能開始了。


      Unsloth Studio 界面

      在搜索欄搜索 Qwen3.5,選模型、選數據集、調參數、點開始訓練——全程鼠標操作:


      配置訓練參數

      訓練過程中可以實時監控損失曲線:


      訓練過程監控

      訓練完成后可以直接導出為 GGUF、safetensor 等格式:


      導出模型 方式二:代碼微調(SFT 文本微調)

      對于想精細控制的同學,下面是一個最小可運行的 SFT 代碼:

      from unsloth import FastLanguageModel
      import torch
      from datasets import load_dataset
      from trl import SFTTrainer, SFTConfig

      max_seq_length = 2048# 先從小開始

      # 加載數據集(替換成你自己的)
      url = "https://huggingface.co/datasets/laion/OIG/resolve/main/unified_chip2.jsonl"
      dataset = load_dataset("json", data_files={"train": url}, split="train")

      # 加載模型
      model, tokenizer = FastLanguageModel.from_pretrained(
      model_name = "Qwen/Qwen3.5-27B",
      max_seq_length = max_seq_length,
      load_in_4bit = False, # 不建議用 QLoRA
      load_in_16bit = True, # bf16 LoRA
      full_finetuning = False,
      )

      # 添加 LoRA 適配器
      model = FastLanguageModel.get_peft_model(
      model,
      r = 16,
      target_modules = [
      "q_proj", "k_proj", "v_proj", "o_proj",
      "gate_proj", "up_proj", "down_proj",
      ],
      lora_alpha = 16,
      lora_dropout = 0,
      bias = "none",
      use_gradient_checkpointing = "unsloth", # 長上下文 + 更低顯存
      random_state = 3407,
      max_seq_length = max_seq_length,
      )

      # 訓練
      trainer = SFTTrainer(
      model = model,
      train_dataset = dataset,
      tokenizer = tokenizer,
      args = SFTConfig(
      max_seq_length = max_seq_length,
      per_device_train_batch_size = 1,
      gradient_accumulation_steps = 4,
      warmup_steps = 10,
      max_steps = 100,
      logging_steps = 1,
      output_dir = "outputs_qwen35",
      optim = "adamw_8bit",
      seed = 3407,
      dataset_num_proc = 1,
      ),
      )

      trainer.train()

      關鍵參數說明:

      • load_in_16bit = True:使用 bf16 LoRA,穩定性最好

      • use_gradient_checkpointing = "unsloth":Unsloth 專屬的檢查點機制,顯存占用更低

      • r = 16:LoRA 秩,越大精度越高但越容易過擬合

      • lora_alpha = 16:建議 alpha >= r

      如果遇到 OOM,把per_device_train_batch_size降到 1,或者降低max_seq_length。

      MoE 模型微調(35B / 122B)

      對于Qwen3.5-35B-A3B122B-A10B這樣的 MoE 模型:

      from unsloth import FastModel


      model, tokenizer = FastModel.from_pretrained(
      model_name = "unsloth/Qwen3.5-35B-A3B",
      max_seq_length = 2048,
      load_in_4bit = False,
      load_in_16bit = True,
      full_finetuning = False,
      )

      Unsloth 的 MoE 訓練內核默認啟用,號稱比標準方案快 12 倍、顯存減少 35%、上下文長度提升 6 倍。默認禁用路由層微調以保證穩定性。

      122B-A10B 的 bf16 LoRA 需要 256GB 顯存,多卡用戶加device_map = "balanced"

      視覺微調(Qwen3.5 VLM)

      Qwen3.5 本身就是一個統一的視覺語言模型,所以視覺微調非常自然:

      from unsloth import FastVisionModel

      model, tokenizer = FastVisionModel.from_pretrained(
      "unsloth/Qwen3.5-4B",
      load_in_4bit = False,
      use_gradient_checkpointing = "unsloth",
      )

      model = FastVisionModel.get_peft_model(
      model,
      finetune_vision_layers = True, # 微調視覺層
      finetune_language_layers = True, # 微調語言層
      finetune_attention_modules = True, # 微調注意力層
      finetune_mlp_modules = True, # 微調 MLP 層
      r = 16,
      lora_alpha = 16,
      lora_dropout = 0,
      bias = "none",
      random_state = 3407,
      target_modules = "all-linear",
      modules_to_save = ["lm_head", "embed_tokens"],
      )

      亮點在于可以精細控制微調哪些部分——你可以選擇只微調視覺層、只微調語言層,或者只微調注意力 / MLP 層,組合隨意。

      想在免費 T4 GPU 上跑?用官方 Colab 筆記本:

      • 視覺微調:https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Qwen3_5_(4B)_Vision.ipynb

      強化學習(GRPO)

      即使 vLLM 暫時還不支持 Qwen3.5,你仍然可以通過禁用 fast inference 來做 GRPO:

      from unsloth import FastLanguageModel


      model, tokenizer = FastLanguageModel.from_pretrained(
      model_name = "unsloth/Qwen3.5-4B",
      fast_inference = False, # 關鍵:禁用 fast vLLM 推理
      )

      如果你想保留模型的推理能力,建議訓練數據中至少保留 75% 的推理風格示例,其余可以用直接答案。

      GGUF 量化基準測試——選什么量化最靠譜?

      Unsloth 做了超過150 次 KL 散度基準測試,總計 9TB 的 GGUF,得出了幾條關鍵結論,這里幫你劃重點:


      KLD 基準測試結果

      量化選擇建議:

      1. 別碰 MXFP4——在很多張量上表現都很差,已從 Q2_K_XL、Q3_K_XL、Q4_K_XL 中退役。Q4_K 在幾乎所有場景下都比 MXFP4 好

      2. ssm_out 層別量化——Mamba 層(ssm_out)量化后 KLD 飆升,磁盤空間卻省不了多少

      3. 3-bit 是甜點區——ffn_up_exps 和 ffn_gate_exps 通??梢粤炕?3 位(iq3_xxs 附近),2 位就開始明顯降級了

      4. Imatrix 確實有效——能降低 KLD 和 PPL,但推理速度慢 5-10%。對低位數量化幫助更大

      5. attn_ 層高度敏感 *——對于混合架構,注意力層保持高精度很重要

      Tensor 類型敏感度分析

      另外一個很重要的發現:困惑度(PPL)和 KL 散度可能具有誤導性。Unsloth Dynamic IQ2_XXS 在真實評估(LiveCodeBench v6、MMLU Pro)上表現優于 AesSedai 的 IQ3_S,盡管體積小 11GB,但后者的 PPL 和 KLD 指標反而更好看。所以千萬不要只看 PPL 就下結論。


      GGUF 量化選擇五大關鍵原則 導出與部署

      微調完成后,導出到各種格式都很方便:

      導出為 GGUF(給 Ollama / llama.cpp 用):

      model.save_pretrained_gguf("directory", tokenizer, quantization_method="q4_k_m")
      model.save_pretrained_gguf("directory", tokenizer, quantization_method="q8_0")

      導出為 16-bit(給 vLLM 用):

      model.save_pretrained_merged("finetuned_model", tokenizer, save_method="merged_16bit")

      只保存 LoRA 適配器:

      model.save_pretrained("finetuned_lora")
      tokenizer.save_pretrained("finetuned_lora")

      推到 HuggingFace:

      model.push_to_hub_gguf("hf_username/model", tokenizer, quantization_method="q4_k_m")

      ??注意:vLLM 0.16.0 不支持 Qwen3.5,需要等 0.170 或用 Nightly 版本。如果導出模型在其他運行時效果變差,大概率是聊天模板 / EOS 令牌用錯了——必須和訓練時保持一致。

      總結

      整理一下整個微調路徑:

      路線

      適合誰

      顯存門檻

      Unsloth Studio

      不想寫代碼

      取決于模型

      ?????

      SFT 代碼微調

      需要精細控制

      3GB(0.8B)起

      ?????

      視覺微調

      做多模態應用

      10GB(4B)起

      ????

      GRPO 強化學習

      提升推理能力

      10GB 起

      ????

      MoE 微調

      要大模型能力

      74GB 起

      ???


      Qwen3.5 微調路徑一覽

      Unsloth 在 Qwen3.5 上的支持可以說是教科書級別的——從 Studio 無代碼方案到 Colab 免費筆記本,再到 GGUF 量化基準的深度研究,生態做得相當完整。唯一的坑是 MoE 模型對硬件要求較高,以及 transformers v5 的硬依賴。

      • Unsloth 微調文檔:https://unsloth.ai/docs/zh/mo-xing/qwen3.5/fine-tune

      • GGUF 基準測試:https://unsloth.ai/docs/zh/mo-xing/qwen3.5/gguf-benchmarks

      • Colab 視覺微調筆記本:https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Qwen3_5_(4B)_Vision.ipynb

      • Unsloth GitHub:https://github.com/unslothai/unsloth

      .5

      制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      博士肄業生把985院長拉下馬:同濟剛免職,又有三所高校被爆造假

      博士肄業生把985院長拉下馬:同濟剛免職,又有三所高校被爆造假

      妍妍教育日記
      2026-05-13 09:55:04
      前途無量,卡斯爾G5砍下17分4籃板6助攻2搶斷

      前途無量,卡斯爾G5砍下17分4籃板6助攻2搶斷

      懂球帝
      2026-05-13 11:27:05
      西甲歐冠5席位全出爐!貝蒂斯時隔20年再參賽,26歲安東尼終圓夢

      西甲歐冠5席位全出爐!貝蒂斯時隔20年再參賽,26歲安東尼終圓夢

      我愛英超
      2026-05-13 05:38:11
      森林狼主帥:我們偏離了有效打法,沒能讓球隊回到正軌這怪我

      森林狼主帥:我們偏離了有效打法,沒能讓球隊回到正軌這怪我

      懂球帝
      2026-05-13 13:14:09
      森林北終于松口!回應與汪峰分手傳聞,原來寧靜早已把話說透

      森林北終于松口!回應與汪峰分手傳聞,原來寧靜早已把話說透

      老搽學科普
      2026-05-13 04:08:14
      男子要求魚香肉絲不放鹽,店員一句“做不了”,掀翻餐飲業的底褲

      男子要求魚香肉絲不放鹽,店員一句“做不了”,掀翻餐飲業的底褲

      天天熱點見聞
      2026-05-11 15:04:16
      許家印的風塵知己

      許家印的風塵知己

      哲空空
      2026-05-12 17:26:30
      新能源汽車維修遭壟斷,4400萬車主選擇權被鎖

      新能源汽車維修遭壟斷,4400萬車主選擇權被鎖

      第一財經資訊
      2026-05-11 16:52:11
      美國媒體的一個驚人發現:來美中國留學生少了,美國華人教授走了

      美國媒體的一個驚人發現:來美中國留學生少了,美國華人教授走了

      娛樂的宅急便
      2026-05-13 00:29:41
      午盤|全線翻紅!A股爆拉!

      午盤|全線翻紅!A股爆拉!

      龍行天下虎
      2026-05-13 11:39:18
      風向變了?北京昌平職業學校面試現場人山人海,家長半夜來排隊

      風向變了?北京昌平職業學校面試現場人山人海,家長半夜來排隊

      老郭在學習
      2026-05-11 14:35:37
      “不穿內衣有錯嗎?”男子因老婆不穿文胸跑步,引發矛盾釀成悲劇

      “不穿內衣有錯嗎?”男子因老婆不穿文胸跑步,引發矛盾釀成悲劇

      馬拉松跑步健身
      2026-05-13 06:30:15
      永遠要記住,和周圍人搞好關系的秘訣,不是掏錢請客充大方,也不是嘴甜到讓人起雞皮疙瘩,而是狠狠做到這兩點就夠了

      永遠要記住,和周圍人搞好關系的秘訣,不是掏錢請客充大方,也不是嘴甜到讓人起雞皮疙瘩,而是狠狠做到這兩點就夠了

      心理觀察局
      2026-05-13 09:29:10
      你坐火車有過哪些奇葩經歷?網友:怪自己那時候太單純!

      你坐火車有過哪些奇葩經歷?網友:怪自己那時候太單純!

      夜深愛雜談
      2025-12-21 17:37:52
      海哈金喜嫁李亞鵬:李嫣預言成真相

      海哈金喜嫁李亞鵬:李嫣預言成真相

      絢麗的畫卷
      2026-05-11 23:43:19
      曼聯梅西失金靴卻獲最佳!下賽季有望晉升一隊,卡里克急缺戶口本

      曼聯梅西失金靴卻獲最佳!下賽季有望晉升一隊,卡里克急缺戶口本

      羅米的曼聯博客
      2026-05-13 11:49:50
      貴陽女子1880元辦不限次數的瑜伽季卡,連上20多天課后被教練踢出群聊:天天來,你不累嗎?

      貴陽女子1880元辦不限次數的瑜伽季卡,連上20多天課后被教練踢出群聊:天天來,你不累嗎?

      觀威海
      2026-05-11 20:46:40
      吃蘭州拉面的人為什么越來越少了?網友:進店小心翼翼的怕說錯話

      吃蘭州拉面的人為什么越來越少了?網友:進店小心翼翼的怕說錯話

      另子維愛讀史
      2026-02-27 20:31:34
      除了真絲,赫本的田園小衫也不錯!

      除了真絲,赫本的田園小衫也不錯!

      Yuki女人故事
      2026-05-12 21:55:04
      美訪華專機還未起飛,島內突然傳出好消息,賴清德這下笑不出來了

      美訪華專機還未起飛,島內突然傳出好消息,賴清德這下笑不出來了

      陳腕特色體育解說
      2026-05-13 04:22:50
      2026-05-13 13:59:00
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3396文章數 11150關注度
      往期回顧 全部

      科技要聞

      谷歌劇透安卓重大升級 Gemini深度集成底層

      頭條要聞

      特朗普訪華隨行名單:夫人缺席 次子夫婦、魯比奧隨行

      頭條要聞

      特朗普訪華隨行名單:夫人缺席 次子夫婦、魯比奧隨行

      體育要聞

      14年半,74萬,何冰嬌沒選那條更安穩的路

      娛樂要聞

      鞏俐用中文宣布戛納開幕,彰顯國際地位

      財經要聞

      深圳夫妻囤芯片,身家飆漲320億

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      時尚
      家居
      教育
      手機
      軍事航空

      沒八卦、純素人、不驚艷,可她贏麻了

      家居要聞

      極簡主義下的居住場域與空間

      教育要聞

      老師把語文玩出新花樣,創意教學讓語文秒變有趣。這樣的課堂,誰能不愛聽?

      手機要聞

      MediaTek天璣開發者大會2026開幕,OPPO展臺攜兩款新機亮相

      軍事要聞

      知情人士披露:美國或考慮恢復對伊朗軍事行動

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产精品一区视频免费| av资源免费看| 亚洲色无码中文字幕手机在线| 国产极品美女在线精品| 亚洲精品中文字幕一二三| 国产精品一区理论片| 日韩精品卡一卡二卡三卡四| 亚洲国产另类久久久精品网站| 久久久国产99久久国产久一| 久久香蕉国产线看观看导航| 午夜诱惑痒痒网| 日韩精品射精管理在线观看| 福利二区| 亚洲男女羞羞无遮挡久久丫| 一级国产在线观看高清| 97久久精品人人做人人爽| 狠狠色综合7777久夜色撩人ⅰ| 国产98在线 | 日韩| 无码成人1000部免费视频| 日韩理论片| 三级网站| 天天狠天天透天干天天怕∴| 男女裸交免费无遮挡全过程| 99在线精品国产不卡在线观看| 丰满无码人妻热妇无码区| 亚洲老熟女| 日本黄色成人网站| 国产白丝喷水娇喘视频| 日韩一区二区黄色一级片| 亚洲一区av| 亚洲AV成人无码精品电影在线| 欧美精欧美乱码一二三四区| 国产高清国产精品国产专区 | 色偷偷亚洲男人的天堂| 色欲香天天天综合网站无码| 午夜插逼| 久久99综合精品国产首页| 推油少妇久久99久久99久久| 中文有无人妻vs无码人妻激烈| 中日韩欧美一级A片免费| 国产男女插插一级|