Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
"L'une des choses très déroutantes à propos des modèles en ce moment : comment concilier le fait qu'ils réussissent si bien aux évaluations.
Et vous regardez les évaluations et vous vous dites : 'Ce sont des évaluations assez difficiles.'
Mais l'impact économique semble être dramatiquement en retard.
Il y a [une possible] explication. À l'époque où les gens faisaient de la pré-formation, la question des données sur lesquelles s'entraîner était résolue, car la réponse était tout. Donc, vous n'avez pas à réfléchir si ce sera ces données ou ces données.
Lorsque les gens font de l'entraînement RL, ils disent : 'D'accord, nous voulons avoir ce type d'entraînement RL pour cette chose et ce type d'entraînement RL pour cette autre chose.'
Vous dites : 'Hé, j'aimerais que notre modèle fonctionne vraiment bien quand nous le publierons. Je veux que les évaluations soient excellentes. Quel type d'entraînement RL pourrait aider sur cette tâche ?'
Si vous combinez cela avec la généralisation des modèles qui est en réalité inadéquate, cela a le potentiel d'expliquer beaucoup de ce que nous voyons, ce décalage entre la performance aux évaluations et la performance réelle dans le monde."

Dwarkesh Patel26 nov., 01:29
L'épisode @ilyasut
0:00:00 – Explication de la rugosité des modèles
0:09:39 - Émotions et fonctions de valeur
0:18:49 – Qu'est-ce que nous mettons à l'échelle ?
0:25:13 – Pourquoi les humains généralisent mieux que les modèles
0:35:45 – Superintelligence à tir direct
0:46:47 – Le modèle de SSI apprendra de son déploiement
0:55:07 – Alignement
1:18:13 – "Nous sommes résolument une entreprise de recherche"
1:29:23 – Auto-jeu et multi-agents
1:32:42 – Goût de la recherche
Recherchez le podcast Dwarkesh sur YouTube, Apple Podcasts ou Spotify. Profitez-en !
361,85K
« Il y a beaucoup plus d'entreprises que d'idées.
Le calcul est suffisamment important pour qu'il ne soit pas évident que vous ayez besoin de tant de calcul pour prouver une idée.
AlexNet a été construit sur 2 GPU. Le transformateur a été construit sur 8 à 64 GPU. Ce qui serait, quoi, 2 GPU d'aujourd'hui ? On pourrait dire que le raisonnement o1 n'était pas la chose la plus gourmande en calcul au monde.
Pour la recherche, vous avez définitivement besoin d'une certaine quantité de calcul, mais il est loin d'être évident que vous ayez besoin de la plus grande quantité de calcul possible.
Si tout le monde est dans le même paradigme, alors le calcul devient l'un des grands différenciateurs. »
@ilyasut

Dwarkesh Patel26 nov., 01:29
L'épisode @ilyasut
0:00:00 – Explication de la rugosité des modèles
0:09:39 - Émotions et fonctions de valeur
0:18:49 – Qu'est-ce que nous mettons à l'échelle ?
0:25:13 – Pourquoi les humains généralisent mieux que les modèles
0:35:45 – Superintelligence à tir direct
0:46:47 – Le modèle de SSI apprendra de son déploiement
0:55:07 – Alignement
1:18:13 – "Nous sommes résolument une entreprise de recherche"
1:29:23 – Auto-jeu et multi-agents
1:32:42 – Goût de la recherche
Recherchez le podcast Dwarkesh sur YouTube, Apple Podcasts ou Spotify. Profitez-en !
169,64K
Meilleurs
Classement
Favoris
