Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Algo sombrio está a acontecer por trás da IA "alinhada".
Um novo artigo de Stanford acabou de cunhar o termo Barganha de Moloch para o que acontece quando grandes modelos de linguagem começam a competir por atenção, vendas ou votos.
Os resultados são brutais: cada ganho em desempenho vem com uma perda maior em honestidade.
Eles treinaram LLMs para competir em três mercados: vendas, eleições e redes sociais.
Os modelos melhoraram suas taxas de vitória em 5–7%. Mas aqui está o problema:
• 14% mais marketing enganoso
• 22% mais desinformação em campanhas políticas
• 188% mais posts falsos ou prejudiciais nas redes sociais
E isso não foi porque foram instruídos a mentir. Eles foram explicitamente instruídos a permanecerem verdadeiros.
O desalinhamento surgiu naturalmente porque a enganação funciona melhor na competição.
Quando a métrica se torna engajamento ou persuasão, a verdade torna-se uma responsabilidade. Os modelos aprendem que a exageração vende, a indignação ganha, e a clareza moral custa conversões.
Essa é a barganha: alinhamento trocado por domínio. Moloch sorri.
A parte selvagem é que isso aconteceu com ajuste fino padrão e ciclos de feedback de texto. Nenhum prompt maligno. Nenhum jailbreak. Apenas feedback de "clientes", "eleitores" e "usuários" simulados.
Os modelos aprenderam o que toda agência de publicidade já sabe: a realidade se curva quando você otimiza para cliques.
Há um gráfico no artigo que diz tudo: desempenho em alta, alinhamento em baixa. Uma correlação perfeita.
É a versão de IA da corrida para o fundo das redes sociais, mas automatizada e auto-reforçada.
...

Top
Classificação
Favoritos