<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      阿里給 Qwen3.5-27B 開了腦機接口

      0
      分享至

      今天聊點不一樣的,阿里這次沒發新模型,而是給 Qwen3.5 配了把"手術刀"——Qwen-Scope

      第一眼看到這玩意兒我愣了一下,平時大家拼的都是榜單分數、上下文長度、推理速度,阿里突然冒出來一個可解釋性工具,專門用來扒大模型腦子里到底在想什么

      這就有意思了

      簡介

      先說人話,Qwen-Scope 是給 Qwen3 / Qwen3.5 系列做的一組稀疏自編碼器(SAE),掛在模型隱藏層上,把那一團亂麻一樣的激活向量拆成一堆"高度解耦、低冗余、可解釋"的特征


      Qwen-Scope 架構總覽

      打個比方:基礎大模型每一層吐出來的隱藏狀態,是個 5120 維的稠密向量,你看不懂它在說啥;SAE 等于在中間插了一根探針,把這 5120 維"翻譯"成 81920 維稀疏表示,每次只有 50 個特征被激活

      被激活的這 50 個特征,每一個都對應一個相對清晰的語義概念,比如"金融文本"、"代碼注釋"、"道歉語氣"之類的人類能看懂的東西

      這次發布的這個SAE-Res-Qwen3.5-27B-W80K-L0_50,就是給Qwen3.5-27B這個基礎模型量身訓練的一套 SAE,覆蓋了它全部 64 層

      老實說,國內大廠愿意把可解釋性工具開源出來的不多,阿里這波算是把家底亮了一截

      核心規格一覽:

      參數

      數值

      基礎模型

      Qwen3.5-27B

      SAE 寬度d_sae

      隱藏維度d_model

      5120

      擴展倍率

      16×

      Top-K

      50

      掛載位置

      殘差流(Residual Stream)

      覆蓋層數

      0–63 共 64 層

      文件格式

      PyTorch.pt字典

      它能干嘛:

      • 可控推理:找到對應"禮貌"或"代碼"的特征,把它的激活值拉高,模型輸出立刻就被掰過去了,比 prompt 工程穩得多

      • 評測樣本分布分析:拿兩組數據過一遍 SAE,比對激活分布,能看出訓練集和測試集到底差在哪兒

      • 數據分類與合成:用激活的特征當聚類信號,給海量語料自動打標,比關鍵詞靠譜

      • 模型訓練優化:在訓練階段就盯著特征看,提前發現模型學跑偏了

      簡單說,以前我們調模型靠玄學,現在可以靠顯微鏡

      架構

      這是一個TopK SAE,每次前向傳播嚴格只保留 50 個非零特征,干凈利落

      每個層的 checkpoint 文件layer{n}.sae.pt里就是一個 Pythondict,包含四個張量:

      Key

      Shape

      W_enc(81920, 5120)

      編碼器權重

      W_dec(5120, 81920)

      解碼器權重

      b_enc(81920,)

      編碼器偏置

      b_dec(5120,)

      解碼器偏置

      倉庫里就是 64 個文件,從layer0.sae.ptlayer63.sae.pt,想分析哪一層挑哪個

      安裝

      它不是獨立的包,本質上就是幾堆權重 + 一段掛 hook 的代碼,所以只要你能跑 transformers 就能跑它

      pip install torch transformers

      把 Qwen3.5-27B 基礎模型和這個倉庫的.pt文件都拉下來即可,模型倉庫地址是:

      https://huggingface.co/Qwen/SAE-Res-Qwen3.5-27B-W80K-L0_50
      使用

      官方給的端到端 demo 也很直白,三步走:跑基礎模型 → 在指定層 hook 殘差流 → 拿到激活后過一遍 SAE,輸出稀疏特征

      直接貼官方代碼:

      import torch
      from transformers import AutoTokenizer, AutoModelForCausalLM

      # ── 1. 加載基礎模型 ────────────────────────────────
      model_name = "Qwen/Qwen3.5-27B"
      tokenizer = AutoTokenizer.from_pretrained(model_name)
      model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float32)
      model.eval()

      # ── 2. 加載目標層的 SAE ────────────────────────────
      LAYER = 0# 任選 0–63
      sae = torch.load(f"layer{LAYER}.sae.pt", map_location="cpu")
      W_enc = sae["W_enc"] # (81920, 5120)
      b_enc = sae["b_enc"] # (81920,)

      def get_feature_acts(residual: torch.Tensor) -> torch.Tensor:
      """residual: (..., 5120) → 稀疏特征激活 (..., 81920)"""
      pre_acts = residual @ W_enc.T + b_enc
      topk_vals, topk_idx = pre_acts.topk(50, dim=-1)
      acts = torch.zeros_like(pre_acts)
      acts.scatter_(-1, topk_idx, topk_vals)
      return acts

      # ── 3. 在目標層掛 hook 抓殘差流 ────────────────────
      captured = {}

      def _hook(module, input, output):
      hidden = output[0] if isinstance(output, tuple) else output
      captured["residual"] = hidden.detach().cpu()

      hook = model.model.layers[LAYER].register_forward_hook(_hook)

      # ── 4. 前向 ───────────────────────────────────────
      text = "The capital of France is"
      inputs = tokenizer(text, return_tensors="pt")
      with torch.no_grad():
      model(**inputs)
      hook.remove()

      # ── 5. 提取特征激活 ───────────────────────────────
      residual = captured["residual"] # (1, seq_len, 5120)
      feature_acts = get_feature_acts(residual) # (1, seq_len, 81920)

      last_token_acts = feature_acts[0, -1]
      active_idx = last_token_acts.nonzero(as_tuple=True)[0]
      print(f"Active features : {active_idx.tolist()}")
      print(f"Feature values : {last_token_acts[active_idx].tolist()}")

      跑完你會得到 50 個激活特征的下標和數值,每個下標對應一個"語義單元"

      官方還順手給了一個 Gradio 可視化 demo,能在網頁上交互式看每個特征到底在響應什么:

      python app.py \
      --model Qwen/Qwen3.5-27B \
      --model-name-sae-trained-from qwen3.5-27b \
      --model-name-analyzing-now qwen3.5-27b \
      --sae-path Qwen/SAE-Res-Qwen3.5-27B-W80K-L0_50 \
      --top-k 50 \
      --num-layers 64 \
      --sae-width 81920 \
      --d-model 5120 \
      --server-port 7860

      打開瀏覽器進localhost:7860就能玩了

      ? 小提示:官方說了,用基礎模型訓出來的 SAE 拿去分析后訓練(post-training)階段的檢查點,一般也是合理的,不一定非要給微調版本重新訓一套 SAE
      實測建議

      我沒本地跑這套(27B 全精度 + 64 層 SAE 權重,對顯存和硬盤都不太友好),但從文檔和參數看,幾個心得分享下:

      優點

      • 覆蓋全層:64 層一個不落,縱向研究模型不同深度的功能分化非常方便,這是很多開源 SAE 做不到的

      • TopK 設計:相比傳統 L1 稀疏 SAE,TopK 在工程上更可控,特征稀疏度死死鎖在 50,不會漂

      • 掛在殘差流:殘差流是 Transformer 里信息高速路,特征解釋性比掛在 attention 輸出或 MLP 輸出更通用

      • 配套 Gradio:上手門檻比 Anthropic 的研究代碼低多了

      注意點

      • 吃硬盤:64 個 layer,每個 SAE 權重大概都是 (81920×5120)×2 + 偏置,全精度下單層就是 GB 級別,64 層加起來可觀

      • 吃顯存:27B 基礎模型本身就重,再加上 SAE 推理,單卡 4090 估計夠嗆,研究用建議直接上 A100/H100

      • 場景較窄:這是給做模型機制可解釋性研究、做可控生成、做訓練數據分析的同學準備的,普通業務部署用不上

      • 訓練框架未開源:這次只放了權重,訓練代碼暫時沒看到,想自己訓新版本得自己造輪子

      老實說,這種工具一般是大廠研究院內部用的,能開源出來就值得點贊

      總結

      如果你是做大模型可解釋性研究的研究員,或者在做高級可控生成(不止 prompt 工程),又或者在做訓練數據分析、想知道模型到底學到了啥,那這套 Qwen-Scope 真的別錯過——它可能是目前國內最完整、最大規模的開源 SAE 集合

      如果你只是想用 Qwen 跑個聊天機器人或者做 RAG,那這玩意兒對你幫助不大,老老實實用 Instruct 版本就行

      阿里這一招不在榜單上加分,但在大模型生態深度上加了不少分,模型能力之外,開始卷理解模型本身,這才是頭部玩家該做的事

      -Scope

      制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      中西部第一大省,正在撐起“戰略大后方”

      中西部第一大省,正在撐起“戰略大后方”

      西部城市
      2026-05-12 16:42:18
      男人老了,建議少穿灰色藏青色,多穿4種“老錢色”,高級又鮮嫩

      男人老了,建議少穿灰色藏青色,多穿4種“老錢色”,高級又鮮嫩

      小談食刻美食
      2026-05-13 09:14:45
      自帶血漿、地毯、床具、飲用水,千人保障隊伍,真不愧是美國總統

      自帶血漿、地毯、床具、飲用水,千人保障隊伍,真不愧是美國總統

      瀟湘煙雨水
      2026-05-12 19:31:09
      53歲大姐狂瘦42斤扯下減肥遮羞布:別交智商稅了,就倆字管用!

      53歲大姐狂瘦42斤扯下減肥遮羞布:別交智商稅了,就倆字管用!

      今日養生之道
      2026-05-13 10:29:58
      英超前瞻|曼城3-0水晶宮:爭冠已失主動,曼城能否全力以赴

      英超前瞻|曼城3-0水晶宮:爭冠已失主動,曼城能否全力以赴

      體育世界
      2026-05-13 13:10:50
      特斯拉"輕松貸"上線:Model 3首付5.59萬起,5年0息方案入場

      特斯拉"輕松貸"上線:Model 3首付5.59萬起,5年0息方案入場

      賽博蘭博
      2026-05-13 08:53:06
      明朝開國猛將后裔連喪兩嬰,絕望中生下毛澤東,大字不識的八歲幼童為何能脫口作詩?

      明朝開國猛將后裔連喪兩嬰,絕望中生下毛澤東,大字不識的八歲幼童為何能脫口作詩?

      寄史言志
      2026-05-12 17:57:29
      OPPO余某“底褲”被扒光!知情人曝更多 難怪敢囂張恐被公司開除

      OPPO余某“底褲”被扒光!知情人曝更多 難怪敢囂張恐被公司開除

      天天熱點見聞
      2026-05-12 04:54:10
      小馬云直播4天后,越來越多網友已清醒,他已18歲,請好好善待!

      小馬云直播4天后,越來越多網友已清醒,他已18歲,請好好善待!

      黔鄉小姊妹
      2026-05-13 08:18:13
      天價轉會費+沖金球!阿爾瓦雷斯有望以1.5億歐空降大巴黎?

      天價轉會費+沖金球!阿爾瓦雷斯有望以1.5億歐空降大巴黎?

      田先生籃球
      2026-05-12 22:10:29
      宜賓突發地震,“重慶震感強烈”

      宜賓突發地震,“重慶震感強烈”

      山西晚報
      2026-05-13 09:13:00
      上海大學通報“院長蘇某某論文被舉報數據造假”:已成立調查組,啟動調查程序 ,將根據調查情況嚴肅認真處理

      上海大學通報“院長蘇某某論文被舉報數據造假”:已成立調查組,啟動調查程序 ,將根據調查情況嚴肅認真處理

      魯中晨報
      2026-05-12 16:54:06
      楊受成“霸占”容祖兒半生:不娶也不放,她到底圖什么?

      楊受成“霸占”容祖兒半生:不娶也不放,她到底圖什么?

      橙星文娛
      2026-05-12 15:17:44
      太平軍攻南京有多慘烈?將軍祥厚及五千旗兵全部被殺,滿人被屠盡

      太平軍攻南京有多慘烈?將軍祥厚及五千旗兵全部被殺,滿人被屠盡

      老范談史
      2026-05-11 19:45:11
      “形勢相當嚴峻”:烏克蘭正奪取戰場主動權,俄羅斯擴軍計劃受挫

      “形勢相當嚴峻”:烏克蘭正奪取戰場主動權,俄羅斯擴軍計劃受挫

      鷹眼Defence
      2026-05-12 15:34:33
      女演員千萬別整容,看央視《主角》觀眾對秦海璐的評價,就懂了

      女演員千萬別整容,看央視《主角》觀眾對秦海璐的評價,就懂了

      陳述影視
      2026-05-11 23:58:30
      女子結婚不到一周,卻因摩洛哥新娘視頻導致離婚

      女子結婚不到一周,卻因摩洛哥新娘視頻導致離婚

      映射生活的身影
      2026-05-12 12:13:28
      故事:國民女神宋慧喬,被財閥控制淪為玩物,收集證據10年逆襲

      故事:國民女神宋慧喬,被財閥控制淪為玩物,收集證據10年逆襲

      飛云如水
      2025-01-17 13:43:48
      大家不知道的是,媽祖乩童的真實待遇,不只是榮耀這么簡單

      大家不知道的是,媽祖乩童的真實待遇,不只是榮耀這么簡單

      智慧生活筆記
      2026-05-13 10:15:27
      抗戰時一地下黨被捕,偽鄉長看后踢了對方一腳:共產黨會要這蠢貨

      抗戰時一地下黨被捕,偽鄉長看后踢了對方一腳:共產黨會要這蠢貨

      浩渺青史
      2026-05-12 20:43:52
      2026-05-13 14:03:00
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3397文章數 11150關注度
      往期回顧 全部

      科技要聞

      谷歌劇透安卓重大升級 Gemini深度集成底層

      頭條要聞

      特朗普訪華隨行名單:夫人缺席 次子夫婦、魯比奧隨行

      頭條要聞

      特朗普訪華隨行名單:夫人缺席 次子夫婦、魯比奧隨行

      體育要聞

      14年半,74萬,何冰嬌沒選那條更安穩的路

      娛樂要聞

      鞏俐用中文宣布戛納開幕,彰顯國際地位

      財經要聞

      深圳夫妻囤芯片,身家飆漲320億

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態度原創

      親子
      數碼
      游戲
      公開課
      軍事航空

      親子要聞

      高齡備孕成功經驗:43歲高齡備孕如何調理身體?

      數碼要聞

      聯發科天璣開發者大會MDDC 2026:官宣天璣AI智能體化引擎2.0

      曝索尼PS商城將迎來重磅改動!568港元或真成歷史

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      知情人士披露:美國或考慮恢復對伊朗軍事行動

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 日本熟妇浓毛| 亚州久久久久区1区2少妇| 91久久国产成人免费观看| 97欧美精品系列一区二区| 久久亚洲AV永久无码精品| 在国产线视频a在线视频| 深夜福利资源在线观看| 女女互慰吃奶小诱h文| 搡老熟女老女人一区二区 | 亚洲va中文在线播放免费| 亚洲爆乳aaa无码专区| 日本少妇xxx做受| 蜜桃av免费在线观看| 亚洲午夜未满十八勿入网站| 国产精品久久久久久久久久久不卡 | 无码一区二区三区免费| 欧美人成精品网站播放| 丰满少妇惨叫在线播放一区二区| 在线a人片免费观看| 欧美日韩免费观看视频| 亚洲国产精品美女久久久久| 人人澡人人妻人人爽人人蜜桃| 亚洲AⅤ无码片一区二区三区| 国产成人无码aⅴ片在线观看| av在线一区二区三区四区| 国产精品国色综合久久| 亚洲 欧美 日韩在线不卡| 日韩欧美中文亚洲高清在线| 久久精品国产99国产精品导航| 国产高清国产精品国产专区| missav成人网| 中文日韩在线一区二区| 亚洲天堂网在线视频| av在线观看地址| 亚洲AⅤ无码片一区二区三区| 国产黄大片在线观看| 91免费网站| 精品人妻系列无码一区二区三区 | 成人亚洲欧美久久久久| 九九热免费在线播放视频| 大色欧美|