Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Caramba… este artigo pode ser a mudança mais importante na forma como usamos LLMs este ano inteiro.
"Modelos Causais Grandes a partir de Modelos de Linguagem Grandes."
Ele mostra que é possível crescer modelos causais completos diretamente de um LLM, não aproximações, não vibrações, gráficos causais reais, contrafactuais, intervenções e estruturas verificadas por restrições.
E a forma como eles fazem isso é incrível:
Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista:
→ extrair um gráfico causal candidato do texto
→ pedir ao modelo para verificar independências condicionais
→ detectar contradições
→ revisar a estrutura
→ testar contrafactuais e previsões intervencionais
→ iterar até que o modelo causal se estabilize
O resultado é algo que nunca tivemos antes:
um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo.
Através de benchmarks sintéticos, do mundo real, domínios bagunçados, esses LCMs superam métodos clássicos de descoberta causal porque se baseiam no enorme conhecimento prévio do LLM em vez de apenas correlações locais.
E o raciocínio contrafactual?
Surpreendentemente forte.
O modelo pode responder a perguntas de "e se" que algoritmos padrão falham completamente, simplesmente porque já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas a partir dos dados.
Este artigo sugere um futuro onde os LLMs não são apenas máquinas de padrões....

Top
Classificação
Favoritos
