## Menschliche Effizienz ist notwendig für AGI Ich beende eine großartige 🇸🇬 Reise, bei der ich mit @agihippo abhängen konnte und @jeffdean, @quocleix, @denny_zhou und andere die "State of GDM" 2025 Updates gegeben haben* Das bisher häufigste Thema in unseren Gesprächen ist die Lern-Effizienz. Inferenzzeit-Computing ist jetzt der große Trend, aber #efficiencyiscoming als Nächstes, und ich bin normalerweise 3-6 Monate voraus, wenn ich solche Gefühle habe. Die Leute sind oft überrascht und stimmen dann im Allgemeinen zu, wenn ich eine Verbindung ziehe zwischen dem Durchbruch des selbstüberwachten Lernens und RLAIF und RLVR, dass sie alle nur Schrittveränderungen in der Leistung pro Datenpunkt sind, und der nächste exponentielle Sprung dieser Effizienz war offensichtlich das, was Quoc bestätigte, dass Ilya auch in seinem unten referenzierten Vortrag daran arbeitet + Ilyas "Berg", den er auf der NeurIPS identifiziert hat. Ich würde etwas Geld darauf wetten, dass die Lösung dafür ein neuer Block/Abstraktion ist, der keine "einfachen Multiagenten" ist und mehr mit Echtzeittestung und der Auflösung potenzieller Weltmodell-Hypothesen zu tun hat, ähnlich wie man ein Sudoku-Rätsel löst oder Cluedo spielt. Das ist der einzige systematische Weg, den ich kenne, um den menschlichen Lernprozess zu reduzieren, bei dem wir Konzepte mit 10-20x weniger Datenpunkten pro Konzept als das aktuelle SOTA im Few-Shot-Lernen lernen können. Wenn ich ein Forscher wäre, würde ich jetzt hier anfangen... und es wäre sehr ironisch/cool, wenn dies @ylecun's ultimativer Sieg wäre, den er haben könnte. *+ habe einige Meetings mit lokalen Staatsfonds + Startups gemacht!
4,17K