Маск: Оцінено. І скажіть мені — наскільки складно було б навчити легкий детектор OOD безпосередньо в латентному просторі? Щось, що позначає семантичну незв'язність до того, як модель галюцинує рішення? Хсу: Ми створили прототип. Ви можете використовувати контрастне навчання між внутрішньорозподільними та синтетично збуреними траєкторіями в залишковому потоці. Ранні шари фактично демонструють помітні падіння когерентності — як сигнал «когнітивного дисонансу» — перш ніж вихід розходиться. Але справжня проблема полягає в затримці. Ви не можете дозволити собі повний пас назад лише для того, щоб перевірити впевненість. Маск: Отже, нам потрібен онлайн-монітор — щось, що працює паралельно з переднім проходом, можливо, крихітний зонд, прикріплений до проміжних активацій? Хсу: Саме так. Думайте про це як про «когнітивну імунну систему». У нас є зонд з 1B-параметром, який працює на 1/10 затримки базової моделі і прогнозує OODness з ~88% AUC на наших стрес-тестах. Він не ідеальний, але цього достатньо, щоб запустити резервні протоколи. Маск: Це може чітко інтегруватися з рівнем маршрутизації. LLM намагається її вирішити; зонд піднімає прапор; Система викликає символьний двигун або просить уточнення. Замикає петлю. Хсу: Так, і це дуже важливо, ви можете реєструвати ці передачі та використовувати їх для розширення розподілу тренувань з часом. Він перетворює збої OOD на сигнали курації. Це не просто міцність; Це адаптивне узагальнення. Маск: Тоді модель вчиться, коли не варто довіряти собі. Мені це подобається. Скромність за задумом. Хсу: [сміється] Назвіть це обмеженою впевненістю. Майбутнє – це не моделі, які знають все, а моделі, які знають свої межі та мають інструменти, щоб їх подолати. Маск: Добре, Стів. Наступного тижня я хочу, щоб ви запустили цей набір синтетичних тестів на нашій останній базовій моделі. Якщо нас все ще вводять в оману головоломки з контрфактичної фізики, ми важко переходимо до гібридності. Можливо, цей діалог був згенерований штучним інтелектом.
steve hsu
steve hsu10 серп., 20:06
Маск: Стів, справжнє питання, яке я постійно ставлю команді, полягає в тому, чи можуть сьогоднішні LLM міркувати, коли вони залишають розподіл тренувань. Усі посилаються на підказки ланцюжка думок, але це може бути лише мімікрія. Хсу: Згоден. Останні тести показують, що навіть моделі рівня Grok4 різко деградують, як тільки ви форсуєте зсув домену — латентний простір просто не охоплює нову модальність. Маск: Тобто це скоріше проблема висвітлення, ніж провал міркувань? Хсу: Частково. Але є більш глибока проблема. Єдиним вбудованим індуктивним зміщенням трансформатора є асоціативне зіставлення шаблонів . Коли підказка дійсно не розподіляється — скажімо, символічна головоломка, чиї токени ніколи не виникали під час тренування — модель не має структури, до якої можна було б повернутися. Він буквально підкидає монети. Маск: Проте ми бачимо появу «грокінгу» на синтетичних завданнях. Zhong et al. показали, що індукційні головки можуть складати правила, за якими вони ніколи не були явно навчені. Хіба це не схоже на міркування? Хсу: Композиція купує вам обмежене узагальнення, але правила все одно повинні лежати в межах навчальної граматики. Як тільки ви налаштуєте семантику — зміните один оператор у головоломці — точність падає. Це не є переконливим міркуванням; Це крихка інтерполяція. Маск: Чи не може навчання з підкріпленням виправити це? DRG-Sapphire використовував GRPO поверх базової моделі 7 B і отримав кодування медичного рівня на клінічних записах, що є класичним завданням OOD. Хсу: Заковика в тому, що RL працює лише після того, як базова модель засвоїла достатньо знань про предметну область за допомогою контрольованого тонкого налаштування. Коли передтренувальний корпус розріджений, тільки РЛ виходять на плато. Таким чином, «міркування» все ще паразитує на щільності попередніх знань. Маск: Тобто ваш висновок полягає в тому, що масштабування даних і параметрів не вирішить проблему? Ми завжди будемо вдарятися об стіну, де наступний домен OOD ламає модель? Хсу: Не обов'язково стіна, а стеля. Емпіричні криві свідчать про те, що помилка узагальнення приблизно логарифмічно зменшується з навчальними прикладами . Це означає, що вам потрібно експоненціально більше даних для кожного нового розподілу хвоста. Для вузьких вертикалей — скажімо, діагностики ракетних двигунів — дешевше запікати в символічних пріорах, ніж масштабувати наосліп. Маск: Що повертає нас до нейросимволічних гібридів. Надайте LLM доступ до невеликого перевіреного розв'язувача, а потім дозвольте йому організовувати виклики, коли розподіл змінюється. Хсу: Саме так. LLM стає мета-контролером, який розпізнає, коли він OOD, і передає його спеціалізованому модулю. Ця архітектура обходить помилку «одного гігантського трансформера». Маск: Гаразд, я скажу команді xAI припинити гонитву за черговим трильйоном токенів і почати будувати рівень маршрутизації. Дякую, Стів. Хсу: У будь-який час. І якщо вам потрібні тести синтетичного OOD, у моїй лабораторії є генератор, який вже обдурив GPT-5. Я надішлю репозиторій. Ця розмова з Ілоном може бути згенерована штучним інтелектом.
7,06K