RT @RichardHanania: Opptil 225 000 dollar for å være skribent for en podcast er en veldig høy lønn. Dwarkesh er villig til å betale for kvalitet. Jeg oppmuntrer t...
"En av de veldig forvirrende tingene med modellene akkurat nå: hvordan skal man forene det faktum at de gjør det så bra på evalueringene.
Og du ser på vurderingene og tenker, 'Det er ganske harde vurderinger.'
Men den økonomiske effekten ser ut til å være dramatisk bak.
Det finnes [en mulig] forklaring. Da folk gjorde fortrening, ble spørsmålet om hvilke data man skulle trene på besvart, fordi det svaret var alt. Så du trenger ikke å tenke på om det skal være disse dataene eller de dataene.
Når folk gjør RL-trening, sier de: 'Ok, vi vil ha denne typen RL-trening for dette og den typen RL-trening for det der.'
Du sier: 'Hei, jeg vil gjerne at modellen vår gjør det veldig bra når vi slipper den. Jeg vil at evalueringene skal se flotte ut. Hva ville vært RL-trening som kunne hjelpe med denne oppgaven?'
Hvis du kombinerer dette med en generalisering om at modellene faktisk er utilstrekkelige, har det potensial til å forklare mye av det vi ser, denne koblingen mellom evalueringsytelse og faktisk virkelighetsmessig ytelse."
Den @ilyasut episoden
0:00:00 – Forklarer modellens hakkete egenskaper
0:09:39 - Følelser og verdifunksjoner
0:18:49 – Hva skalerer vi?
0:25:13 – Hvorfor mennesker generaliserer bedre enn modeller
0:35:45 – Rett frem superintelligens
0:46:47 – SSIs modell vil lære av utrulling
0:55:07 – Justering
1:18:13 – «Vi er virkelig en tid for forskningsselskaper»
1:29:23 – Selvspill og multiagent
1:32:42 – Undersøk smak
Søk opp Dwarkesh Podcast på YouTube, Apple Podcasts eller Spotify. Nyte!