Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

steve hsu
Físico, fundador de IA, Manifold Podcast
¡Entrenando IA en mundos virtuales generados por IA!

Bonnie Li23 ago, 01:44
Ahora podemos entrenar la IA dentro de la mente de otra IA. 🤯
🌍 Nuestro modelo de mundo, Genie 3, imagina y genera nuevos mundos sobre la marcha.
🤖 Nuestro agente encarnado, Sima, se deja caer y aprende a navegar por ellos de forma autónoma.
Todo el bucle, desde el entorno hasta la acción, es generado por la IA.
Este es solo el primer paso, pronto tendremos simuladores mundiales para entrenar inteligencia incorporada general.
5.64K
Medidas de confianza simples basadas en la probabilidad logarítmica promedio utilizadas para filtrar los rastros de razonamiento. Una vez más, una investigación muy buena habilitada por el acceso a modelos de código abierto de alta calidad.
Busque canalizaciones cada vez más potentes con una arquitectura de "generador-verificador" que reproduzca los malos resultados. El verificador puede ser una instancia de modelo o algún tipo de función matemática como las métricas de confianza internas desarrolladas en este documento. Los modelos existentes son muy poderosos cuando se usan con este tipo de canalización y grandes presupuestos de tokens. (Aquí, ~1E8 tokens utilizados para AIME 2025).
"DeepConf aprovecha las señales de confianza internas del modelo para filtrar dinámicamente los rastros de razonamiento de baja calidad durante o después de la generación. No requiere entrenamiento adicional del modelo ni ajuste de hiperparámetros y se puede integrar sin problemas en los marcos de servicio existentes. Evaluamos DeepConf en una variedad de tareas de razonamiento y los últimos modelos de código abierto, incluidas las series Qwen 3 y GPT-OSS. En particular, en puntos de referencia desafiantes como AIME 2025, DeepConf@512 logra hasta un 99,9% de precisión y reduce los tokens generados hasta en un 84,7% en comparación con el pensamiento paralelo completo".
Tenga en cuenta la ironía de estos investigadores de Meta que usan modelos de sistema operativo Qwen, GPT-OSS y DeepSeek, pero no Llama 😢


Jiawei Zhao23 ago, 04:00
Presentamos DeepConf: Deep Think with Confidence
🚀 ¡Primer método para lograr el 99,9% en AIME 2025 con modelos de código abierto! Usando GPT-OSS-120B incluso sin herramientas, alcanzamos esta precisión casi perfecta mientras ahorramos hasta un 85% de tokens generados.
También ofrece muchas ventajas importantes para el pensamiento paralelo:
🔥 Aumento del rendimiento: ~10% de precisión en todos los modelos y conjuntos de datos
⚡ Ultraeficiente: hasta un 85% menos de tokens generados
🔧 Plug & play: Funciona con CUALQUIER modelo existente - no se necesita entrenamiento (¡no se necesita ajuste de hiperparámetros también!)
⭐ Fácil de implementar: solo ~ 50 líneas de código en vLLM (consulte PR a continuación)
📚 Papel:
🌐 Proyecto:
Trabajo conjunto con: @FuYichao123 , xuewei_wang, @tydsh
(ver detalles en los comentarios a continuación)
4.86K
"Vladimir, todos están sentados en mi oficina mirándome como idiotas. Les dije que la guerra había terminado y que les estábamos atribuyendo la pérdida. Pero no pueden absorberlo".


steve hsu19 ago, 05:27
"¡Vladimir, estos tipos son realmente RETRASADOS como dijiste!"
9.98K
Según una métrica razonable, Francia es más socialista que la República Popular China 🤔

Michael A. Arouet19 ago, 13:30
Esto es simplemente una locura. ¿Una empresa necesita gastar 95 mil euros para pagar a alguien 39 mil euros como salario neto en Francia? ¿Quién diablos consideraría seriamente crear nuevos empleos allí?

13.29K
Este artículo revisa la ciencia detrás de la selección de embriones. ¿TLDR? ¡Siga el enlace a continuación para ver un podcast de IA que explica el artículo! 🤯
Del genotipo al fenotipo: predicción poligénica de rasgos humanos complejos
La decodificación del genoma confiere la capacidad de predecir características del organismo (fenotipo) a partir del ADN (genotipo). Describimos el estado actual y las perspectivas futuras de la predicción genómica de rasgos complejos en humanos. ...

4.05K
"¡Vladimir, estos tipos son realmente RETRASADOS como dijiste!"

The Spectator Index19 ago, 04:47
ÚLTIMA HORA: Trump ha interrumpido su reunión con líderes europeos para llamar a Putin
36.79K
Citas e investigación científica de la RPC
La figura de la izquierda muestra el avance de la ciencia de la RPC y la importancia de los repatriados del extranjero.
Los científicos chinos más productivos (proporción de artículos altamente citados) están trabajando en los EE. UU. y la UE, pero para 2017 la brecha entre los que permanecen en Occidente y los que regresaron a la República Popular China era mucho menor. La figura de la derecha muestra que en 2023 la participación de la República Popular China en el 10% de los artículos más citados era similar a la de los países de la UE, por delante de Corea y Japón.
Nota para un trabajo de igual calidad, un científico en los EE. UU. o la UE obtendrá más citas porque el centro de masa de la empresa científica global todavía está principalmente en Occidente. Sin embargo, esto está cambiando rápidamente.


9.24K
steve hsu reposteó
Andrej Karpathy explica qué hace único a Elon Musk
"No creo que la gente aprecie lo único que es [el estilo de Elon]. Lo lees, pero no lo entiendes, es difícil de describir".
El primer principio que Karpathy, quien dirigió el equipo de visión por computadora de Tesla Autopilot, ha observado es que a Musk le gustan los equipos pequeños, fuertes y altamente técnicos:
"En las empresas, por defecto, los equipos crecen y se hacen grandes. Elon siempre fue una fuerza contra el crecimiento... Básicamente, tendría que suplicar que se contratara gente. Y luego la otra cosa es que en las grandes empresas es difícil deshacerse de los de bajo rendimiento. Elon es muy amigable por defecto para deshacerse de los de bajo rendimiento. De hecho, tuve que luchar para mantener a la gente en el equipo porque él, por defecto, querría eliminar a la gente... Así que mantén un equipo pequeño, fuerte y altamente técnico. No hay mandos intermedios que no sean técnicos, seguro. Ese es el número uno".
El número dos es que Elon quiere que la oficina sea un lugar vibrante donde todos trabajen en cosas emocionantes:
"No le gusta el estancamiento... No le gustan las reuniones grandes. Siempre anima a la gente a abandonar las reuniones si no están siendo útiles. De hecho, ves esto cuando es una gran reunión y si no estás contribuyendo o aprendiendo, simplemente vete. Esto es totalmente recomendable... Creo que muchas grandes empresas miman a los empleados, pero hay mucho menos de eso. La cultura es que estás ahí para hacer tu mejor trabajo técnico y hay intensidad".
Elon también es inusual en términos de cuán estrechamente conectado está con el equipo:
"Por lo general, el CEO de una empresa es una persona remota, de cinco niveles más arriba, que solo habla con sus vicepresidentes... Normalmente, la gente pasa el 99% del tiempo hablando con los vicepresidentes. [Elon] pasa tal vez el 50% del tiempo. Y solo quiere hablar con los ingenieros. Si el equipo es pequeño y fuerte, entonces los ingenieros y el código son la fuente de la verdad... no un gerente. Y quiere hablar con ellos para entender el estado real de las cosas y lo que se debe hacer para mejorarlo".
Y, por último, Karpathy cree que no se aprecia hasta qué punto Musk está involucrado en las operaciones diarias y en la eliminación de los cuellos de botella de la empresa. Da un ejemplo de ingenieros que le dicen a Elon que no tienen suficientes GPU. Como explica Karpathy, si Elon escucha esto dos veces, llamará a la persona a cargo del clúster de GPU. Si NVIDIA es el cuello de botella, pondrá a Jensen Huang al teléfono.
Fuente del vídeo: @sequoia (2024)
8.65K
Un montón de cosas escondidas en los modelos base, suprimidas por el entrenamiento posterior pero aún accesibles mediante trucos inteligentes.

Omar Shams16 ago, 09:08
(código de entrenador trl a continuación) ¿Cómo se escala la búsqueda de modelos de lenguaje? ¿Se puede guiar un modelo de lenguaje hacia la resolución de nuevos problemas que generalmente no puede resolver simplemente a través del remuestreo guiado sin entrenar el modelo en absoluto? Resulta que la respuesta es más o menos sí. Esto tiene implicaciones importantes para la investigación posterior a la capacitación y la seguridad.
4.96K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas