Caramba... Este artigo pode ser a mudança mais importante na forma como usamos LLMs durante todo o ano. "Grandes Modelos Causais a partir de Grandes Modelos de Linguagem." Mostra que você pode desenvolver modelos causais completos diretamente de um LLM, não aproximações, nem gráficos causais reais, contrafactuais, intervenções e estruturas com restrições. E a forma como eles fazem isso é impressionante: Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista: → extrair um grafo causal candidato do texto → pedir ao modelo para verificar as dependências condicionais → detectar contradições → revisar a estrutura → testar previsões contrafactuais e intervencionistas → iterar até que o modelo causal se estabilize O resultado é algo que nunca tivemos antes: um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo. Em domínios sintéticos, reais e complexos em benchmarks, esses LCMs superam os métodos clássicos de descoberta causal porque eles se baseiam no enorme conhecimento prévio do LLM, em vez de apenas correlações locais. E o raciocínio contrafactual? Surpreendentemente forte. O modelo pode responder perguntas do tipo "e se" que algoritmos padrão falham completamente, simplesmente porque ele já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas com dados. Este artigo sugere um futuro em que os LLMs não são apenas máquinas de padrões....