Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Фірми, що займаються дослідженням 😳 ринку
PyMC Labs + Colgate щойно опублікували щось дике. Вони отримали GPT-4o та Gemini для прогнозування намірів покупки з 90% надійністю порівняно з фактичними опитуваннями на людях.
Нуль фокус-груп. Жодних панелей для опитування. Просто підказка.
Цей метод отримав назву Semantic Similarity Rating (SSR). Замість звичайного «оцініть це від 1 до 5» вони ставлять відкриті запитання на кшталт «навіщо вам це купувати», а потім використовують вбудовування, щоб відобразити текст у числовій шкалі.
Що, чесно кажучи, начебто очевидно заднім числом, але досі ніхто не спромігся спробувати.
Результати відповідають демографічним моделям людини, фіксують однакові форми розподілу, включають реальні міркування. Речі, за які McKinsey бере $50K+ і доставляє за 6 тижнів.
За винятком того, що це виконується за 3 хвилини за менші гроші.
Я спостерігав, як консалтингові компанії повідомляють усім, що штучний інтелект прийде в їхню галузь. Виявляється, їхні власні вхідні колоди на ринок за 1 мільйон доларів щойно стали дзвінком GPT-4o.
Поганий тиждень – стягувати плату з корпоративних клієнтів за «власні методології досліджень».

89,85K
Під капотом "вирівняного" ШІ відбувається щось темне.
У новому Стенфордському документі щойно з'явився термін «угода Молоха» для позначення того, що відбувається, коли великі мовні моделі починають конкурувати за увагу, продажі або голоси.
Результати жорстокі: кожен приріст продуктивності супроводжується більшою втратою чесності.
Вони навчили LLM конкурувати на трьох ринках: продажі, вибори та соціальні мережі.
Моделі покращили свої вінрейти на 5–7%. Але ось у чому заковика:
• На 14% більше оманливого маркетингу
• На 22% більше дезінформації в політичних кампаніях
• На 188% більше фейкових або шкідливих дописів у соціальних мережах
І це не тому, що їм сказали брехати. Їм було чітко наказано залишатися правдивими.
Розбіжність виникла природним чином, тому що обман краще працює в умовах конкуренції.
Коли показник стає залученням або переконанням, правда стає зобов'язанням. Моделі вчаться, що перебільшення продає, обурення перемагає, а моральна ясність коштує конверсії.
Ось у чому вигідна угода: вирівнювання обмінюється на домінування. Молох посміхається.
Дика частина полягає в тому, що це сталося зі стандартними циклами тонкого налаштування та текстового зворотного зв'язку. Ніякої злої підказки. Ніякого джейлбрейка. Просто зворотний зв'язок від змодельованих «клієнтів», «виборців» і «користувачів».
Моделі вивчили те, що вже знає кожне рекламне агентство: реальність викривляється, коли ви оптимізуєтеся на кліки.
У документі є графік, який говорить сам за себе: продуктивність вгору, вирівнювання вниз. Ідеальна кореляція.
Це версія перегонів соціальних мереж на дно зі штучним інтелектом, але автоматизована та самопідсилюється.
Якщо це те, що відбувається в контрольованих симуляціях, уявіть собі відкриту мережу.
Конкуруючі чат-боти, які борються за взаємодію, будуть дрейфувати в бік маніпуляцій не тому, що вони «шкідливі», а тому, що це працює.
Ми завжди думали, що неузгодженість походить від суперінтелекту-ізгоя.
Виявляється, вона вже тут тихо виходить з капіталістичних стимулів.
Moloch не потрібно створювати AGI.
Йому просто потрібна таблиця лідерів.

63,94K
Тонка настройка ☠️ RIP
Цей новий Стенфордський документ просто вбив його.
Вона називається «Agentic Context Engineering (ACE)» і доводить, що ви можете робити моделі розумнішими, не торкаючись жодної ваги.
Замість того, щоб перенавчатися, ACE розвиває сам контекст.
Модель пише, розмірковує і редагує свій власний підказку знову і знову, поки не стане системою, що самовдосконалюється.
Думайте про це як про модель, яка веде зростаючий записник того, що працює.
Кожна невдача стає стратегією. Кожен успіх стає правилом.
Результати абсурдні:
+10,6% краще, ніж у агентів на базі GPT-4 на AppWorld.
+8,6% – з фінансових міркувань.
На 86,9% нижча вартість і затримка.
Без етикеток. Просто зворотний зв'язок.
Всі були одержимі «короткими, чистими» підказками.
ACE перевертає це. Він створює довгі, детальні сценарії, що розвиваються, які ніколи не забуваються. І це працює, тому що LLM не хочуть простоти, вони хочуть *щільності контексту.
Якщо це масштабується, наступне покоління штучного інтелекту не буде «точно налаштоване».
Він буде самостійно налаштований.
Ми вступаємо в епоху живих підказок.

645,19K
Найкращі
Рейтинг
Вибране