Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Musk: Uppskattat. Och säg mig – hur svårt skulle det vara att träna en lätt OOD-detektor direkt i det latenta utrymmet? Något som flaggar för semantisk inkonsekvens innan modellen hallucinerar en lösning?
Hsu: Vi har gjort en prototyp av det. Du kan använda kontrastiv inlärning mellan in-distribution och syntetiskt störda banor i residualströmmen. De tidiga lagren visar faktiskt detekterbara koherensfall – som en signal om "kognitiv dissonans" – innan utdata divergerar. Men den verkliga utmaningen är latens. Du har inte råd med en hel bakåtpassning bara för att kontrollera självförtroendet.
Musk: Så vi behöver en online-monitor – något som körs parallellt med framåtpassningen, kanske en liten sond kopplad till mellanliggande aktiveringar?
Hsu: Precis. Tänk på det som ett "kognitivt immunsystem". Vi har en sond med 1 B-parameter som körs på 1/10 av latensen för basmodellen och förutsäger OODness med ~88 % AUC på våra stresstester. Det är inte perfekt, men det räcker för att utlösa reservprotokoll.
Mysk: Det skulle kunna integreras rent med routingskiktet. LLM försöker lösa det; sonden höjer en flagga; systemet anropar den symboliska motorn eller ber om förtydligande. Stänger cirkeln.
Hsu: Ja – och viktigast av allt, du kan logga dessa överlämningar och använda dem för att utöka utbildningsdistributionen över tid. Det omvandlar OOD-fel till kurationssignaler. Det är inte bara robusthet; Det är adaptiv generalisering.
Musk: Då lär sig modellen när man inte ska lita på sig själv. Jag gillar det. Ödmjukhet avsiktligt.
Hsu: [skrattar] Kalla det begränsat förtroende. Framtiden är inte modeller som vet allt – det är modeller som känner till sina gränser och har verktyg för att överskrida dem.
Musk: Okej, Steve. Nästa vecka vill jag att du kör den syntetiska testskvaten på vår senaste basmodell. Om vi fortfarande låter oss luras av kontrafaktiska fysikpussel svänger vi hårt till hybrid.
Den här dialogrutan kan ha genererats av AI.

10 aug. 20:06
Musk: Steve, den verkliga frågan jag ställer till teamet är om dagens LLM:er kan resonera när de lämnar utbildningsdistributionen. Alla citerar tankekedja, men det kan bara vara härmning.
Hsu: Håller med. De senaste benchmarks visar att till och med modeller på Grok4-nivå försämras kraftigt när du tvingar fram ett domänskifte - det latenta utrymmet sträcker sig helt enkelt inte över den nya modaliteten.
Musk: Så det är mer ett täckningsproblem än ett resonemangsfel?
Hsu: Delvis. Men det finns ett djupare problem. Transformatorns enda inbyggda induktiva förspänning är associativ mönstermatchning. När prompten verkligen är out-of-distribution – till exempel ett symboliskt pussel vars tokens aldrig inträffade under träningen – har modellen ingen struktur före att falla tillbaka på. Det vänder bokstavligen mynt.
Musk: Ändå ser vi en framväxande "grokking" på syntetiska uppgifter. Zhong et al. visade att induktionshuvuden kan komponera regler som de aldrig uttryckligen tränats på. Ser inte det ut som ett resonemang?
Hsu: Komposition ger dig begränsad generalisering, men reglerna måste fortfarande ligga i omfånget av träningsgrammatiken. Så fort du justerar semantiken – byter en enskild operator i pusslet – kollapsar noggrannheten. Det är inte ett robust resonemang; Det är spröd interpolation.
Musk: Kunde inte förstärkningsinlärning fixa det? DRG-Sapphire använde GRPO ovanpå en 7 B-basmodell och fick kodning av läkarkvalitet på kliniska anteckningar, en klassisk OOD-uppgift.
Hsu: Haken är att RL bara fungerar efter att basmodellen har matat in tillräckligt med domänkunskap via övervakad finjustering. När korpusen före träningen är gles platåer enbart RL. Så "resonemanget" parasiterar fortfarande på tidigare kunskapstäthet.
Musk: Så din slutsats är att skalning av data och parametrar inte kommer att lösa problemet? Vi kommer alltid att stöta på en vägg där nästa OOD-domän bryter modellen?
Hsu: Inte nödvändigtvis en vägg, men ett tak. De empiriska kurvorna tyder på att generaliseringsfelet avtar ungefär logaritmiskt med träningsexempel . Det innebär att du behöver exponentiellt mer data för varje ny svansfördelning. För smala vertikaler – till exempel raketmotordiagnostik – är det billigare att baka in symboliska priorer än att skala blint.
Musk: Vilket för oss tillbaka till neuro-symboliska hybrider. Ge LLM åtkomst till en liten verifierad lösare och låt den sedan orkestrera anrop när distributionen skiftar.
Hsu: Precis. LLM blir en metakontroller som känner igen när det är OOD och överlämnar till en specialiserad modul. Den arkitekturen kringgår villfarelsen om "en gigantisk transformator".
Musk: Okej, jag säger till xAI-teamet att sluta jaga nästa biljon tokens och börja bygga routinglagret. Tack, Steve.
Hsu: När som helst. Och om du behöver syntetiska OOD-testfall har mitt labb en generator som redan har lurat GPT-5. Jag skickar lagringsplatsen.
Den här konversationen med Elon kan vara AI-genererad.

7,07K
Topp
Rankning
Favoriter