RIP тонкая настройка ☠️ Эта новая статья Стэнфорда только что убила это. Она называется 'Agentic Context Engineering (ACE)' и доказывает, что можно сделать модели умнее, не трогая ни одного веса. Вместо повторного обучения, ACE развивает сам контекст. Модель пишет, размышляет и редактирует свой собственный запрос снова и снова, пока не станет самоулучшающейся системой. Представьте, что модель ведет растущий блокнот того, что работает. Каждая неудача становится стратегией. Каждый успех становится правилом. Результаты абсурдны: +10.6% лучше, чем агенты на базе GPT-4 в AppWorld. +8.6% в финансовом мышлении. 86.9% меньшие затраты и задержка. Без меток. Только обратная связь. Все были одержимы "короткими, чистыми" запросами. ACE переворачивает это. Он создает длинные, детализированные развивающиеся пособия, которые никогда не забывают. И это работает, потому что LLM не хотят простоты, они хотят *плотности контекста. Если это масштабируется, следующее поколение ИИ не будет "тонко настроенным." Оно будет само-настраиваемым. Мы входим в эпоху живых запросов.