Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Caramba... Este artigo pode ser a mudança mais importante na forma como usamos LLMs durante todo o ano.
"Grandes Modelos Causais a partir de Grandes Modelos de Linguagem."
Mostra que você pode desenvolver modelos causais completos diretamente de um LLM, não aproximações, nem gráficos causais reais, contrafactuais, intervenções e estruturas com restrições.
E a forma como eles fazem isso é impressionante:
Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista:
→ extrair um grafo causal candidato do texto
→ pedir ao modelo para verificar as dependências condicionais
→ detectar contradições
→ revisar a estrutura
→ testar previsões contrafactuais e intervencionistas
→ iterar até que o modelo causal se estabilize
O resultado é algo que nunca tivemos antes:
um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo.
Em domínios sintéticos, reais e complexos em benchmarks, esses LCMs superam os métodos clássicos de descoberta causal porque eles se baseiam no enorme conhecimento prévio do LLM, em vez de apenas correlações locais.
E o raciocínio contrafactual?
Surpreendentemente forte.
O modelo pode responder perguntas do tipo "e se" que algoritmos padrão falham completamente, simplesmente porque ele já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas com dados.
Este artigo sugere um futuro em que os LLMs não são apenas máquinas de padrões....

Melhores
Classificação
Favoritos
