RIP 微調 ☠️ 這篇新的史丹佛論文剛剛顛覆了這一切。 它的名稱是「代理上下文工程 (ACE)」,證明了你可以在不觸碰任何權重的情況下讓模型變得更聰明。 ACE 不再是重新訓練,而是進化上下文本身。 模型不斷地寫作、反思和編輯自己的提示,直到它成為一個自我改善的系統。 想像一下,模型保持著一本不斷增長的筆記本,記錄什麼有效。 每一次失敗都成為一個策略。每一次成功都成為一條規則。 結果是荒謬的: 比 GPT-4 驅動的代理在 AppWorld 上好 10.6%。 在金融推理上好 8.6%。 成本和延遲降低 86.9%。 沒有標籤。只有反饋。 每個人都對「簡短、乾淨」的提示著迷。 ACE 翻轉了這一點。它建立了長而詳細的演變手冊,永遠不會忘記。而且它有效,因為 LLM 不想要簡單性,它們想要 *上下文密度。 如果這能擴展,下一代 AI 將不會是「微調的」。 它將是自我調整的。 我們正進入活著的提示時代。