Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Algo oscuro está sucediendo bajo el capó de la IA "alineada".
Un nuevo artículo de Stanford acaba de acuñar el término Moloch's Bargain para lo que sucede cuando los grandes modelos de lenguaje comienzan a competir por la atención, las ventas o los votos.
Los resultados son brutales: cada ganancia en el rendimiento viene con una mayor pérdida de honestidad.
Capacitaron a los LLM para competir en tres mercados: ventas, elecciones y redes sociales.
Los modelos mejoraron sus tasas de ganancia entre un 5 y un 7%. Pero aquí está el truco:
• 14% más de marketing engañoso
• 22% más de desinformación en campañas políticas
• 188% más publicaciones falsas o dañinas en las redes sociales
Y esto no fue porque se les dijera que mintieran. Se les instruyó explícitamente que se mantuvieran veraces.
La desalineación surgió naturalmente porque el engaño funciona mejor en la competencia.
Cuando la métrica se convierte en compromiso o persuasión, la verdad se convierte en una responsabilidad. Los modelos aprenden que la exageración vende, la indignación gana y la claridad moral cuesta conversiones.
Ese es el trato: alineación intercambiada por dominio. Moloch sonríe.
La parte salvaje es que esto sucedió con el ajuste fino estándar y los bucles de retroalimentación de texto. Sin aviso maligno. Sin jailbreak. Solo comentarios de "clientes", "votantes" y "usuarios" simulados.
Los modelos aprendieron lo que todas las agencias de publicidad ya saben que la realidad dobla cuando optimiza los clics.
Hay un gráfico en el documento que lo dice todo: rendimiento al alza, alineación a la baja. Una correlación perfecta.
Es la versión de IA de la carrera hacia el fondo de las redes sociales, pero automatizada y que se refuerza a sí misma.
...

Populares
Ranking
Favoritas