熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
我剛讀到這篇全新的論文,完全讓我大開眼界 🤯
研究人員找到了如何在完全不同的 AI 模型之間轉移 LoRA 適配器,而不需要任何訓練數據,效果比需要大量數據集的方法還要好。
這個方法叫做 TITOK,這裡有個瘋狂的部分:
他們不是從源模型複製所有內容,而是只轉移那些實際重要的標記。他們通過比較有和沒有 LoRA 的模型來找出適配器真正增加價值的地方。
想像一下:如果你的調整模型對某個標記很有信心,但基礎模型卻不這麼認為,那麼這個標記就包含了你想要轉移的知識。
結果非常驚人:
比原始模型好 +8%
比傳統知識蒸餾好 +6%
比 TransLoRA 好 +4.4%
而且它在各種極端情況下都能運作:
→ Mistral 到 Llama(不同家族)
→ 3B 到 8B 模型(不同大小)
→ Llama 2 到 Llama 3(不同版本)
最大的優勢?不需要額外的模型。TransLoRA 需要訓練一個單獨的判別器來過濾合成數據。TITOK 使用源模型本身來識別重要的標記。
更瘋狂的是:他們自動處理不同的標記器。當模型以不同方式拆分文本時,他們的算法會對齊標記並在空隙中傳播重要性分數。
這不僅僅是學術上的。每當一個新模型推出時,你的微調適配器就會變得過時。TITOK 意味著你可以在幾小時內將這些艱苦獲得的知識遷移到任何新的骨幹,而不是幾週。
我們剛剛從「每個模型需要自己的適配器」變成了「知識在模型之間自由流動」。
...

熱門
排行
收藏