Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
"Una de las cosas más confusas de los modelos ahora mismo: cómo reconciliar el hecho de que les va tan bien en las evaluaciones.
Y miras las evaluaciones y piensas: 'Son evaluaciones bastante duras.'
Pero el impacto económico parece estar dramáticamente por detrás.
Hay una posible explicación. Cuando la gente hacía pre-entrenamiento, la pregunta de qué datos usar entrenamiento se respondía, porque esa respuesta lo era todo. Así que no tienes que pensar si van a ser estos o aquellos datos.
Cuando la gente hace entrenamiento de RL, dicen: 'Vale, queremos tener este tipo de entrenamiento de RL para esto y aquel tipo de entrenamiento de RL para aquello.'
Dices: 'Oye, me encantaría que nuestro modelo funcionara muy bien cuando lo lancemos. Quiero que las evaluaciones queden geniales. ¿Qué entrenamiento en vida real podría ayudar en esta tarea?'
Si combinas esto con la generalización de que los modelos son realmente insuficientes, eso podría explicar mucho de lo que estamos viendo, esta desconexión entre el rendimiento de evaluación y el rendimiento real en el mundo real"

Dwarkesh Patel26 nov, 01:29
El episodio @ilyasut
0:00:00 – Explicando la irregularidad del modelo
0:09:39 - Emociones y funciones de valor
0:18:49 – ¿Qué estamos escalando?
0:25:13 – Por qué los humanos generalizan mejor que los modelos
0:35:45 – Superinteligencia de tiro directo
0:46:47 – El modelo de SSI aprenderá del despliegue
0:55:07 – Alineación
1:18:13 – "Somos claramente una empresa de la era de la investigación"
1:29:23 – Auto-juego y multiagente
1:32:42 – Sabor de investigación
Busca Dwarkesh Podcast en YouTube, Apple Podcasts o Spotify. ¡Disfrutar!
361.85K
"Hay más empresas que ideas con mucho.
La computación es lo suficientemente grande como para que no sea evidente que necesites mucha más computación para demostrar alguna idea.
AlexNet se construyó sobre 2 GPUs. El transformador se construyó con entre 8 y 64 GPUs. ¿Que serían, qué, 2 GPUs de hoy? Se podría argumentar que el razonamiento en O1 no era lo más pesado en cálculo del mundo.
Para la investigación, definitivamente necesitas cierta cantidad de cálculo, pero no está nada claro que necesites la mayor cantidad de cálculo posible.
Si todos están dentro del mismo paradigma, entonces la computación se convierte en uno de los grandes diferenciadores."
@ilyasut

Dwarkesh Patel26 nov, 01:29
El episodio @ilyasut
0:00:00 – Explicando la irregularidad del modelo
0:09:39 - Emociones y funciones de valor
0:18:49 – ¿Qué estamos escalando?
0:25:13 – Por qué los humanos generalizan mejor que los modelos
0:35:45 – Superinteligencia de tiro directo
0:46:47 – El modelo de SSI aprenderá del despliegue
0:55:07 – Alineación
1:18:13 – "Somos claramente una empresa de la era de la investigación"
1:29:23 – Auto-juego y multiagente
1:32:42 – Sabor de investigación
Busca Dwarkesh Podcast en YouTube, Apple Podcasts o Spotify. ¡Disfrutar!
169.64K
Populares
Ranking
Favoritas
