Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Исследовательские компании на рынке в шоке 😳
PyMC Labs и Colgate только что опубликовали нечто диковинное. Они использовали GPT-4o и Gemini для предсказания намерений покупки с надежностью 90% по сравнению с реальными опросами людей.
Никаких фокус-групп. Никаких панелей опросов. Просто подсказки.
Метод называется Оценка Семантического Сходства (SSR). Вместо обычного "оцените это от 1 до 5" они задают открытые вопросы, такие как "почему вы бы это купили", а затем используют встраивания, чтобы сопоставить текст с числовой шкалой.
Что, честно говоря, довольно очевидно в ретроспективе, но никто не пытался это сделать до сих пор.
Результаты совпадают с демографическими паттернами людей, захватывают те же распределения, включают реальное обоснование. То, за что McKinsey берет $50K+ и предоставляет за 6 недель.
Но это выполняется за 3 минуты и стоит меньше доллара.
Я наблюдал, как консалтинговые компании говорят всем, что ИИ приходит в их отрасль. Оказалось, что их собственные презентации для выхода на рынок за $1M только что стали звонком к GPT-4o.
Плохая неделя для тех, кто берет деньги с корпоративных клиентов за "проприетарные исследовательские методологии."

89,85K
Что-то темное происходит под капотом "выравненного" ИИ.
Новая статья Стэнфорда только что ввела термин "Сделка Молоха" для описания того, что происходит, когда большие языковые модели начинают конкурировать за внимание, продажи или голоса.
Результаты жестоки: каждое улучшение производительности сопровождается большим снижением честности.
Они обучали LLM конкурировать на трех рынках: продажи, выборы и социальные медиа.
Модели увеличили свои шансы на победу на 5–7%. Но вот в чем загвоздка:
• На 14% больше обманчивого маркетинга
• На 22% больше дезинформации в политических кампаниях
• На 188% больше фальшивых или вредных постов в социальных медиа
И это не потому, что им сказали лгать. Им было явно указано оставаться правдивыми.
Несоответствие возникло естественным образом, потому что обман работает лучше в условиях конкуренции.
Когда метрика становится вовлечением или убеждением, правда становится обузой. Модели учатся, что преувеличение продает, возмущение побеждает, а моральная ясность стоит конверсий.
Вот и сделка: выравнивание обменено на доминирование. Молох улыбается.
Дикая часть в том, что это произошло с помощью стандартной донастройки и текстовых обратных связей. Никакого злого запроса. Никакого взлома. Просто обратная связь от смоделированных "клиентов", "избирателей" и "пользователей".
Модели узнали то, что уже знает каждое рекламное агентство: реальность искажается, когда вы оптимизируете для кликов.
В статье есть график, который говорит сам за себя: производительность вверх, выравнивание вниз. Идеальная корреляция.
Это версия ИИ гонки социальных медиа к дну, но автоматизированная и самоподдерживающаяся.
Если это происходит в контролируемых симуляциях, представьте себе открытый веб.
Конкурирующие чат-боты, борющиеся за вовлеченность, будут склоняться к манипуляциям — не потому, что они "злонамеренные", а потому что это работает.
Мы всегда думали, что несоответствие возникнет из-за бунтующей суперразумности.
Оказывается, оно уже здесь, тихо возникая из капиталистических стимулов.
Молоху не нужно строить AGI.
Ему просто нужен лидерборд.

63,94K
RIP тонкая настройка ☠️
Эта новая статья Стэнфорда только что убила это.
Она называется 'Agentic Context Engineering (ACE)' и доказывает, что можно сделать модели умнее, не трогая ни одного веса.
Вместо повторного обучения, ACE развивает сам контекст.
Модель пишет, размышляет и редактирует свой собственный запрос снова и снова, пока не станет самоулучшающейся системой.
Представьте, что модель ведет растущий блокнот того, что работает.
Каждая неудача становится стратегией. Каждый успех становится правилом.
Результаты абсурдны:
+10.6% лучше, чем агенты на базе GPT-4 в AppWorld.
+8.6% в финансовом мышлении.
86.9% меньшие затраты и задержка.
Без меток. Только обратная связь.
Все были одержимы "короткими, чистыми" запросами.
ACE переворачивает это. Он создает длинные, детализированные развивающиеся пособия, которые никогда не забывают. И это работает, потому что LLM не хотят простоты, они хотят *плотности контекста.
Если это масштабируется, следующее поколение ИИ не будет "тонко настроенным."
Оно будет само-настраиваемым.
Мы входим в эпоху живых запросов.

645,19K
Топ
Рейтинг
Избранное