Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
"Een van de zeer verwarrende dingen over de modellen op dit moment: hoe de feiten te verzoenen dat ze het zo goed doen op evaluaties.
En je kijkt naar de evaluaties en je denkt: 'Dat zijn best moeilijke evaluaties.'
Maar de economische impact lijkt dramatisch achter te blijven.
Er is [een mogelijke] verklaring. Toen mensen bezig waren met pre-training, was de vraag op welke data te trainen beantwoord, omdat dat antwoord alles was. Dus je hoeft niet na te denken of het deze data of die data gaat zijn.
Wanneer mensen RL-training doen, zeggen ze: 'Oké, we willen deze soort RL-training voor dit ding en die soort RL-training voor dat ding.'
Je zegt: 'Hé, ik zou willen dat ons model het echt goed doet wanneer we het uitbrengen. Ik wil dat de evaluaties er geweldig uitzien. Wat zou RL-training zijn die kan helpen bij deze taak?'
Als je dit combineert met de generalisatie van de modellen die eigenlijk onvoldoende is, heeft dat het potentieel om veel van wat we zien te verklaren, deze kloof tussen evaluatieprestaties en daadwerkelijke prestaties in de echte wereld."

Dwarkesh Patel26 nov, 01:29
De @ilyasut aflevering
0:00:00 – Uitleg van model jaggedness
0:09:39 - Emoties en waarde functies
0:18:49 – Wat schalen we?
0:25:13 – Waarom mensen beter generaliseren dan modellen
0:35:45 – Rechtstreeks schieten naar superintelligentie
0:46:47 – Het model van SSI zal leren van implementatie
0:55:07 – Afstemming
1:18:13 – “We zijn duidelijk een onderzoeksbedrijf”
1:29:23 – Zelfspel en multi-agent
1:32:42 – Onderzoeksvoorkeur
Zoek Dwarkesh Podcast op YouTube, Apple Podcasts of Spotify. Geniet!
361,83K
"Er zijn meer bedrijven dan ideeën, en dat is behoorlijk veel.
De rekencapaciteit is groot genoeg zodat het niet voor de hand ligt dat je zoveel meer rekencapaciteit nodig hebt om een idee te bewijzen.
AlexNet werd gebouwd op 2 GPU's. De transformer werd gebouwd op 8 tot 64 GPU's. Wat zou dat zijn, 2 GPU's van vandaag? Je zou kunnen stellen dat o1 redenering niet het meest rekencapaciteit zware ding ter wereld was.
Voor onderzoek heb je zeker een bepaalde hoeveelheid rekencapaciteit nodig, maar het is verre van voor de hand liggend dat je de absoluut grootste hoeveelheid rekencapaciteit nodig hebt.
Als iedereen binnen hetzelfde paradigma zit, dan wordt rekencapaciteit een van de grote differentiators."
@ilyasut

Dwarkesh Patel26 nov, 01:29
De @ilyasut aflevering
0:00:00 – Uitleg van model jaggedness
0:09:39 - Emoties en waarde functies
0:18:49 – Wat schalen we?
0:25:13 – Waarom mensen beter generaliseren dan modellen
0:35:45 – Rechtstreeks schieten naar superintelligentie
0:46:47 – Het model van SSI zal leren van implementatie
0:55:07 – Afstemming
1:18:13 – “We zijn duidelijk een onderzoeksbedrijf”
1:29:23 – Zelfspel en multi-agent
1:32:42 – Onderzoeksvoorkeur
Zoek Dwarkesh Podcast op YouTube, Apple Podcasts of Spotify. Geniet!
169,61K
Boven
Positie
Favorieten
