## L'efficienza a livello umano è necessaria per l'AGI terminando un grande viaggio 🇸🇬 dove ho avuto l'opportunità di passare del tempo con @agihippo + ho visto @jeffdean @quocleix @denny_zhou e altri dare aggiornamenti sul "Stato del GDM" 2025* di gran lunga il tema ricorrente numero 1 nelle nostre conversazioni è l'efficienza nell'apprendimento. il tempo di inferenza è molto in voga ora, ma l'#efficienza sta arrivando, e di solito sono 3-6 mesi avanti rispetto alla maggior parte quando ho queste sensazioni. le persone sono spesso sorprese e poi generalmente concordano quando traccio una linea tra la svolta dell'apprendimento auto-supervisionato e RLAIF e RLVR, che sono tutti cambiamenti significativi nelle prestazioni guadagnate per datapoint, e il prossimo salto esponenziale di questa efficienza era ovviamente ciò su cui Quoc ha confermato che Ilya sta anche lavorando nel suo intervento menzionato qui sotto + la "montagna" di Ilya che ha identificato al NeurIPS. Scommetterei dei soldi che la soluzione a questo è un nuovo blocco/astrazione non-transformers che non è "solo multiagenti" e che è più simile a test in tempo reale e risoluzione di potenziali ipotesi di modelli del mondo, un po' come si risolve un puzzle di sudoku o si gioca a Cluedo. questo è l'unico modo sistematico che conosco per ridurre il processo di apprendimento umano dove possiamo apprendere concetti con pochi esempi utilizzando 10-20 volte meno datapoint per concetto rispetto all'attuale SOTA. Se fossi un ricercatore inizierei da qui ora... e sarebbe molto ironico/fantastico se questo fosse il trionfo finale di @ylecun.
4,17K