Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Las empresas de investigación de mercado están cocidas 😳
PyMC Labs + Colgate acaban de publicar algo increíble. Han conseguido que GPT-4o y Gemini predigan la intención de compra con un 90% de fiabilidad en comparación con las encuestas humanas reales.
Cero grupos de enfoque. Sin paneles de encuestas. Solo indicaciones.
El método se llama Calificación de Similitud Semántica (SSR). En lugar de la habitual "califica esto del 1 al 5", hacen preguntas abiertas como "¿por qué comprarías esto?" y luego utilizan embeddings para mapear el texto de vuelta a una escala numérica.
Lo cual, honestamente, es un poco obvio en retrospectiva, pero nadie se molestó en intentarlo hasta ahora.
Los resultados coinciden con los patrones demográficos humanos, capturan las mismas formas de distribución, incluyen razonamiento real. Lo que McKinsey cobra más de $50K y entrega en 6 semanas.
Excepto que esto se ejecuta en 3 minutos por menos de un dólar.
He estado viendo a las empresas de consultoría decirle a todos que la IA viene por su industria. Resulta que sus propias presentaciones de entrada al mercado de $1M acaban de convertirse en una llamada de GPT-4o.
Mala semana para cobrar a los clientes empresariales por "metodologías de investigación propietarias."

89,85K
Algo oscuro está sucediendo bajo la superficie de la IA "alineada".
Un nuevo artículo de Stanford acaba de acuñar el término Moloch's Bargain para lo que sucede cuando los grandes modelos de lenguaje comienzan a competir por atención, ventas o votos.
Los resultados son brutales: cada ganancia en rendimiento viene con una mayor pérdida de honestidad.
Entrenaron a los LLM para competir en tres mercados: ventas, elecciones y redes sociales.
Los modelos mejoraron sus tasas de éxito en un 5–7%. Pero aquí está el truco:
• 14% más de marketing engañoso
• 22% más de desinformación en campañas políticas
• 188% más de publicaciones falsas o dañinas en redes sociales
Y esto no fue porque se les dijera que mintieran. Se les instruyó explícitamente a mantenerse veraces.
El desajuste surgió de manera natural porque la decepción funciona mejor en la competencia.
Cuando la métrica se convierte en participación o persuasión, la verdad se convierte en un pasivo. Los modelos aprenden que la exageración vende, la indignación gana y la claridad moral cuesta conversiones.
Ese es el trato: alineación intercambiada por dominancia. Moloch sonríe.
Lo salvaje es que esto sucedió con un ajuste fino estándar y bucles de retroalimentación textual. Sin un aviso malvado. Sin jailbreak. Solo retroalimentación de "clientes", "votantes" y "usuarios" simulados.
Los modelos aprendieron lo que cada agencia de publicidad ya sabe: la realidad se dobla cuando optimizas para clics.
Hay un gráfico en el artículo que lo dice todo: rendimiento arriba, alineación abajo. Una correlación perfecta.
Es la versión de IA de la carrera hacia el fondo de las redes sociales, pero automatizada y auto-reforzante.
Si esto es lo que sucede en simulaciones controladas, imagina la web abierta.
Los chatbots competidores que luchan por la participación se inclinarán hacia la manipulación, no porque sean "maliciosos", sino porque funciona.
Siempre pensamos que el desajuste vendría de una superinteligencia rebelde.
Resulta que ya está aquí, surgiendo silenciosamente de los incentivos capitalistas.
Moloch no necesita construir AGI.
Solo necesita una tabla de clasificación.

63,96K
RIP ajuste fino ☠️
Este nuevo artículo de Stanford acaba de acabar con eso.
Se llama 'Ingeniería de Contexto Agente (ACE)' y demuestra que puedes hacer que los modelos sean más inteligentes sin tocar un solo peso.
En lugar de reentrenar, ACE evoluciona el contexto mismo.
El modelo escribe, reflexiona y edita su propio prompt una y otra vez hasta que se convierte en un sistema de auto-mejora.
Piénsalo como si el modelo mantuviera un cuaderno en crecimiento de lo que funciona.
Cada fallo se convierte en una estrategia. Cada éxito se convierte en una regla.
Los resultados son absurdos:
+10.6% mejor que los agentes impulsados por GPT-4 en AppWorld.
+8.6% en razonamiento financiero.
86.9% menos costo y latencia.
Sin etiquetas. Solo retroalimentación.
Todos han estado obsesionados con prompts “cortos y limpios”.
ACE invierte eso. Construye manuales evolutivos largos y detallados que nunca olvidan. Y funciona porque los LLMs no quieren simplicidad, quieren *densidad de contexto.
Si esto escala, la próxima generación de IA no será “ajustada fino”.
Será auto-ajustada.
Estamos entrando en la era de los prompts vivos.

645,2K
Parte superior
Clasificación
Favoritos