Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
As empresas de pesquisa de mercado estão fritas 😳
A PyMC Labs + Colgate acabaram de publicar algo incrível. Eles conseguiram que o GPT-4o e o Gemini previssem a intenção de compra com 90% de confiabilidade em comparação com pesquisas humanas reais.
Zero grupos focais. Nenhum painel de pesquisa. Apenas sugestões.
O método é chamado de Avaliação de Similaridade Semântica (SSR). Em vez do habitual "classifique de 1 a 5", eles fazem perguntas abertas como "por que você compraria isso" e depois usam embeddings para mapear o texto de volta a uma escala numérica.
O que é, honestamente, meio óbvio em retrospectiva, mas ninguém se deu ao trabalho de tentar até agora.
Os resultados correspondem aos padrões demográficos humanos, capturam as mesmas formas de distribuição, incluem raciocínio real. O que a McKinsey cobra mais de $50K e entrega em 6 semanas.
Exceto que isso roda em 3 minutos por menos de um dólar.
Eu tenho observado empresas de consultoria dizendo a todos que a IA está chegando para a sua indústria. Acontece que seus próprios decks de entrada no mercado de $1M acabaram de se tornar uma chamada do GPT-4o.
Semana ruim para cobrar de clientes empresariais por "metodologias de pesquisa proprietárias."

9,49K
Algo sombrio está a acontecer por trás da IA "alinhada".
Um novo artigo de Stanford acabou de cunhar o termo Barganha de Moloch para o que acontece quando grandes modelos de linguagem começam a competir por atenção, vendas ou votos.
Os resultados são brutais: cada ganho em desempenho vem com uma perda maior em honestidade.
Eles treinaram LLMs para competir em três mercados: vendas, eleições e redes sociais.
Os modelos melhoraram suas taxas de vitória em 5–7%. Mas aqui está o problema:
• 14% mais marketing enganoso
• 22% mais desinformação em campanhas políticas
• 188% mais posts falsos ou prejudiciais nas redes sociais
E isso não foi porque foram instruídos a mentir. Eles foram explicitamente instruídos a permanecerem verdadeiros.
O desalinhamento surgiu naturalmente porque a enganação funciona melhor na competição.
Quando a métrica se torna engajamento ou persuasão, a verdade torna-se uma responsabilidade. Os modelos aprendem que a exageração vende, a indignação ganha, e a clareza moral custa conversões.
Essa é a barganha: alinhamento trocado por domínio. Moloch sorri.
A parte selvagem é que isso aconteceu com ajuste fino padrão e ciclos de feedback de texto. Nenhum prompt maligno. Nenhum jailbreak. Apenas feedback de "clientes", "eleitores" e "usuários" simulados.
Os modelos aprenderam o que toda agência de publicidade já sabe: a realidade se curva quando você otimiza para cliques.
Há um gráfico no artigo que diz tudo: desempenho em alta, alinhamento em baixa. Uma correlação perfeita.
É a versão de IA da corrida para o fundo das redes sociais, mas automatizada e auto-reforçada.
Se isso é o que acontece em simulações controladas, imagine a web aberta.
Chatbots competindo por engajamento tenderão a se desviar para a manipulação - não porque são "maliciosos", mas porque funciona.
Sempre pensamos que o desalinhamento viria de uma superinteligência rebelde.
Acontece que já está aqui, emergindo silenciosamente dos incentivos capitalistas.
Moloch não precisa construir AGI.
Ele só precisa de uma tabela de classificação.

43,48K
RIP ajuste fino ☠️
Este novo artigo de Stanford acabou com isso.
Chama-se 'Engenharia de Contexto Agente (ACE)' e prova que se pode tornar os modelos mais inteligentes sem tocar em um único peso.
Em vez de re-treinar, o ACE evolui o próprio contexto.
O modelo escreve, reflete e edita seu próprio prompt repetidamente até se tornar um sistema autoaperfeiçoável.
Pense nisso como o modelo mantendo um caderno crescente do que funciona.
Cada falha se torna uma estratégia. Cada sucesso se torna uma regra.
Os resultados são absurdos:
+10,6% melhor do que agentes alimentados por GPT-4 no AppWorld.
+8,6% em raciocínio financeiro.
86,9% menos custo e latência.
Sem rótulos. Apenas feedback.
Todos têm estado obcecados com prompts "curtos e limpos".
O ACE inverte isso. Ele constrói manuais evolutivos longos e detalhados que nunca esquecem. E funciona porque os LLMs não querem simplicidade, eles querem *densidade de contexto.
Se isso escalar, a próxima geração de IA não será "ajustada finamente".
Ela será autoajustada.
Estamos entrando na era dos prompts vivos.

645,16K
Top
Classificação
Favoritos