RT @RichardHanania: Tot $225K om schrijver te zijn voor een podcast is een echt hoog salaris. Dwarkesh is bereid te betalen voor kwaliteit. Ik moedig t…
"Een van de zeer verwarrende dingen over de modellen op dit moment: hoe de feiten te verzoenen dat ze het zo goed doen op evaluaties.
En je kijkt naar de evaluaties en je denkt: 'Dat zijn best moeilijke evaluaties.'
Maar de economische impact lijkt dramatisch achter te blijven.
Er is [een mogelijke] verklaring. Toen mensen bezig waren met pre-training, was de vraag op welke data te trainen beantwoord, omdat dat antwoord alles was. Dus je hoeft niet na te denken of het deze data of die data gaat zijn.
Wanneer mensen RL-training doen, zeggen ze: 'Oké, we willen deze soort RL-training voor dit ding en die soort RL-training voor dat ding.'
Je zegt: 'Hé, ik zou willen dat ons model het echt goed doet wanneer we het uitbrengen. Ik wil dat de evaluaties er geweldig uitzien. Wat zou RL-training zijn die kan helpen bij deze taak?'
Als je dit combineert met de generalisatie van de modellen die eigenlijk onvoldoende is, heeft dat het potentieel om veel van wat we zien te verklaren, deze kloof tussen evaluatieprestaties en daadwerkelijke prestaties in de echte wereld."
De @ilyasut aflevering
0:00:00 – Uitleg van model jaggedness
0:09:39 - Emoties en waarde functies
0:18:49 – Wat schalen we?
0:25:13 – Waarom mensen beter generaliseren dan modellen
0:35:45 – Rechtstreeks schieten naar superintelligentie
0:46:47 – Het model van SSI zal leren van implementatie
0:55:07 – Afstemming
1:18:13 – “We zijn duidelijk een onderzoeksbedrijf”
1:29:23 – Zelfspel en multi-agent
1:32:42 – Onderzoeksvoorkeur
Zoek Dwarkesh Podcast op YouTube, Apple Podcasts of Spotify. Geniet!