Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Musk : Apprécié. Et dis-moi, à quel point serait-il difficile d'entraîner un détecteur OOD léger directement dans l'espace latent ? Quelque chose qui signale l'incohérence sémantique avant que le modèle ne hallucine une solution ?
Hsu : Nous avons prototypé cela. Vous pouvez utiliser l'apprentissage contrastif entre les trajectoires en distribution et celles synthétiquement perturbées dans le flux résiduel. Les premières couches montrent en fait des baisses de cohérence détectables—comme un signal de "dissonance cognitive"—avant que la sortie ne diverge. Mais le véritable défi est la latence. Vous ne pouvez pas vous permettre un passage arrière complet juste pour vérifier la confiance.
Musk : Donc, nous avons besoin d'un moniteur en ligne—quelque chose qui fonctionne en parallèle avec le passage avant, peut-être une petite sonde attachée aux activations intermédiaires ?
Hsu : Exactement. Pensez-y comme à un "système immunitaire cognitif". Nous avons une sonde de 1 milliard de paramètres qui fonctionne à 1/10 de la latence du modèle de base et prédit l'OODness avec ~88 % AUC lors de nos tests de stress. Ce n'est pas parfait, mais c'est suffisant pour déclencher des protocoles de secours.
Musk : Cela pourrait s'intégrer proprement avec la couche de routage. L'LLM essaie de le résoudre ; la sonde lève un drapeau ; le système invoque le moteur symbolique ou demande des clarifications. Cela boucle le processus.
Hsu : Oui—et surtout, vous pouvez enregistrer ces transferts et les utiliser pour élargir la distribution d'entraînement au fil du temps. Cela transforme les échecs OOD en signaux de curation. Ce n'est pas juste de la robustesse ; c'est une généralisation adaptative.
Musk : Alors le modèle apprend quand ne pas se faire confiance. J'aime ça. Humilité par conception.
Hsu : [rit] Appelez cela une confiance bornée. L'avenir n'est pas des modèles qui savent tout—c'est des modèles qui connaissent leurs limites et ont des outils pour les transcender.
Musk : D'accord, Steve. La semaine prochaine, je veux que tu exécutes cette suite de tests synthétiques sur notre dernier modèle de base. Si nous sommes toujours dupés par des énigmes de physique contrefactuelles, nous pivoterons fortement vers l'hybride.
Ce dialogue a peut-être été généré par une IA.

10 août, 20:06
Musk : Steve, la vraie question que je continue de poser à l'équipe est de savoir si les LLM d'aujourd'hui peuvent raisonner lorsqu'ils sortent de la distribution d'entraînement. Tout le monde cite les prompts en chaîne de pensée, mais cela pourrait n'être qu'une imitation.
Hsu : D'accord. Les dernières évaluations montrent que même les modèles de niveau Grok4 se dégradent fortement dès que vous forcez un changement de domaine — l'espace latent ne couvre tout simplement pas la nouvelle modalité.
Musk : Donc, c'est plus un problème de couverture qu'un échec de raisonnement ?
Hsu : En partie. Mais il y a un problème plus profond. Le seul biais inductif intégré du transformateur est l'appariement de motifs associatifs. Lorsque le prompt est vraiment hors distribution — disons, un puzzle symbolique dont les tokens n'ont jamais co-occuré lors de l'entraînement — le modèle n'a pas de prior structurel sur lequel se reposer. Il flippe littéralement des pièces.
Musk : Pourtant, nous voyons un "grokking" émergent sur des tâches synthétiques. Zhong et al. ont montré que les têtes d'induction peuvent composer des règles sur lesquelles elles n'ont jamais été explicitement entraînées. Cela ne ressemble-t-il pas à du raisonnement ?
Hsu : La composition vous offre une généralisation limitée, mais les règles doivent toujours se situer dans l'étendue de la grammaire d'entraînement. Dès que vous modifiez la sémantique — changez un seul opérateur dans le puzzle — la précision s'effondre. Ce n'est pas un raisonnement robuste ; c'est une interpolation fragile.
Musk : Le renforcement de l'apprentissage ne pourrait-il pas le corriger ? DRG-Sapphire a utilisé GRPO sur un modèle de base de 7 B et a obtenu un codage de niveau médecin sur des notes cliniques, une tâche classique OOD.
Hsu : Le hic, c'est que l'apprentissage par renforcement ne fonctionne qu'après que le modèle de base a ingéré suffisamment de connaissances de domaine via un ajustement supervisé. Lorsque le corpus de pré-entraînement est sparse, l'apprentissage par renforcement seul atteint un plateau. Donc, le "raisonnement" est toujours parasitaire sur la densité des connaissances antérieures.
Musk : Donc, votre conclusion est que l'augmentation des données et des paramètres ne résoudra pas le problème ? Nous frapperons toujours un mur où le prochain domaine OOD casse le modèle ?
Hsu : Pas nécessairement un mur, mais un plafond. Les courbes empiriques suggèrent que l'erreur de généralisation décroît à peu près logarithmiquement avec les exemples d'entraînement. Cela implique que vous avez besoin de données exponentiellement plus nombreuses pour chaque nouvelle distribution de queue. Pour des verticales étroites — disons, le diagnostic de moteurs de fusée — il est moins coûteux d'incorporer des priors symboliques que de scaler aveuglément.
Musk : Ce qui nous ramène aux hybrides neuro-symboliques. Donnez au LLM accès à un petit solveur vérifié, puis laissez-le orchestrer des appels lorsque la distribution change.
Hsu : Exactement. Le LLM devient un méta-contrôleur qui reconnaît quand il est OOD et passe la main à un module spécialisé. Cette architecture contourne la fallacie du "un seul grand transformateur".
Musk : Très bien, je vais dire à l'équipe xAI d'arrêter de courir après les prochains trillions de tokens et de commencer à construire la couche de routage. Merci, Steve.
Hsu : Anytime. Et si vous avez besoin de cas de test OOD synthétiques, mon laboratoire a un générateur qui a déjà trompé GPT-5. Je vais envoyer le dépôt.
Cette conversation avec Elon pourrait être générée par l'IA.

7,05K
Meilleurs
Classement
Favoris