## Menselijke efficiëntie op niveau is noodzakelijk voor AGI ik eindig een geweldige 🇸🇬 reis waar ik met @agihippo heb kunnen rondhangen + @jeffdean @quocleix @denny_zhou et al heb zien geven "State of GDM" 2025 updates* tot nu toe is het #1 terugkerende thema in onze gesprekken leerefficiëntie. inferentietijdcomputing is nu helemaal in, maar #efficiëntiekomt eraan, en ik ben meestal 3-6 maanden vooruit op de meerderheid als ik dit soort gevoelens heb. mensen zijn vaak verrast en zijn het dan meestal eens als ik een lijn trek van de doorbraak van zelfgestuurd leren en RLAIF en RLVR dat ze allemaal gewoon stapveranderingen zijn in prestaties per datapunt, en de volgende exponentiële sprong in deze efficiëntie was duidelijk wat Quoc bevestigde dat Ilya ook aan werkt in zijn talk die hieronder wordt genoemd + Ilya's "berg" die hij identificeerde op NeurIPS. Ik zou een beetje geld inzetten dat de oplossing hiervoor een nieuwe non-transformers blok/abstractie is die niet "gewoon multiagents" is en meer lijkt op realtime testen en resolutie van potentiële wereldmodelhypotheses, een beetje zoals je een sudoku-puzzel oplost of Cluedo speelt. dit is de enige systematische manier die ik ken om het menselijke leerproces te reduceren waar we concepten met 10-20x datapoints per concept minder dan de huidige SOTA kunnen leren met een paar voorbeelden. Als ik een onderzoeker was, zou ik hier nu beginnen... en het zou heel ironisch/cool zijn als dit @ylecun's ultieme overwinning zou zijn om te hebben. *+ heb wat vergaderingen gehad met lokale staatsfondsen + startups!
4,16K