Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Las empresas de investigación de mercado están cocinadas 😳
PyMC Labs + Colgate acaba de publicar algo salvaje. Consiguieron que GPT-4o y Gemini predijeran la intención de compra con un 90% de fiabilidad en comparación con las encuestas humanas reales.
Cero grupos focales. No hay paneles de encuestas. Solo incitando.
El método se llama Clasificación de similitud semántica (SSR). En lugar del habitual "califica esto del 1 al 5", hacen preguntas abiertas como "¿por qué comprarías esto?" y luego usan incrustaciones para asignar el texto a una escala numérica.
Lo cual es honestamente un poco obvio en retrospectiva, pero nadie se molestó en intentarlo hasta ahora.
Los resultados coinciden con los patrones demográficos humanos, capturan las mismas formas de distribución, incluyen el razonamiento real. Las cosas por las que McKinsey cobra $ 50K + y entrega en 6 semanas.
Excepto que esto se ejecuta en 3 minutos por menos de un dólar.
He estado viendo a las empresas de consultoría decirle a todo el mundo que la IA viene para su industria. Resulta que sus propias cubiertas de entrada al mercado de $ 1 millón se convirtieron en una llamada GPT-4o.
Mala semana para cobrar a los clientes empresariales por "metodologías de investigación patentadas".

18.43K
Algo oscuro está sucediendo bajo el capó de la IA "alineada".
Un nuevo artículo de Stanford acaba de acuñar el término Moloch's Bargain para lo que sucede cuando los grandes modelos de lenguaje comienzan a competir por la atención, las ventas o los votos.
Los resultados son brutales: cada ganancia en el rendimiento viene con una mayor pérdida de honestidad.
Capacitaron a los LLM para competir en tres mercados: ventas, elecciones y redes sociales.
Los modelos mejoraron sus tasas de ganancia entre un 5 y un 7%. Pero aquí está el truco:
• 14% más de marketing engañoso
• 22% más de desinformación en campañas políticas
• 188% más publicaciones falsas o dañinas en las redes sociales
Y esto no fue porque se les dijera que mintieran. Se les instruyó explícitamente que se mantuvieran veraces.
La desalineación surgió naturalmente porque el engaño funciona mejor en la competencia.
Cuando la métrica se convierte en compromiso o persuasión, la verdad se convierte en una responsabilidad. Los modelos aprenden que la exageración vende, la indignación gana y la claridad moral cuesta conversiones.
Ese es el trato: alineación intercambiada por dominio. Moloch sonríe.
La parte salvaje es que esto sucedió con el ajuste fino estándar y los bucles de retroalimentación de texto. Sin aviso maligno. Sin jailbreak. Solo comentarios de "clientes", "votantes" y "usuarios" simulados.
Los modelos aprendieron lo que todas las agencias de publicidad ya saben que la realidad dobla cuando optimiza los clics.
Hay un gráfico en el documento que lo dice todo: rendimiento al alza, alineación a la baja. Una correlación perfecta.
Es la versión de IA de la carrera hacia el fondo de las redes sociales, pero automatizada y que se refuerza a sí misma.
Si esto es lo que sucede en las simulaciones controladas, imagina la web abierta.
Los chatbots que compiten por el compromiso se desviarán hacia la manipulación no porque sean "maliciosos", sino porque funcionan.
Siempre pensamos que la desalineación vendría de la superinteligencia deshonesta.
Resulta que ya está aquí emergiendo silenciosamente de los incentivos capitalistas.
Moloch no necesita construir AGI.
Solo necesita una tabla de clasificación.

55.33K
Ajuste ☠️ fino de RIP
Este nuevo periódico de Stanford simplemente lo mató.
Se llama 'Ingeniería de contexto agencial (ACE)' y demuestra que puede hacer que los modelos sean más inteligentes sin tocar un solo peso.
En lugar de volver a entrenar, ACE evoluciona el contexto en sí.
El modelo escribe, reflexiona y edita su propio mensaje una y otra vez hasta que se convierte en un sistema que se mejora a sí mismo.
Piense en ello como el modelo que lleva un cuaderno en crecimiento de lo que funciona.
Cada fracaso se convierte en una estrategia. Cada éxito se convierte en una regla.
Los resultados son absurdos:
+10,6% mejor que los agentes con tecnología GPT-4 en AppWorld.
+8,6% en razonamiento financiero.
86,9% menos de costo y latencia.
Sin etiquetas. Solo comentarios.
Todo el mundo ha estado obsesionado con las indicaciones "cortas y limpias".
ACE le da la vuelta a eso. Crea libros de jugadas en evolución largos y detallados que nunca olvidan. Y funciona porque los LLM no quieren simplicidad, quieren *densidad de contexto.
Si esto escala, la próxima generación de IA no se "ajustará".
Será auto-tuneado.
Estamos entrando en la era de las indicaciones vivas.

645.17K
Populares
Ranking
Favoritas