Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Santo cielo… este documento podría ser el cambio más importante en cómo usamos los LLMs este año entero.
"Modelos Causales Grandes a partir de Modelos de Lenguaje Grandes."
Muestra que puedes desarrollar modelos causales completos directamente a partir de un LLM, no aproximaciones, no sensaciones, gráficos causales reales, contrafactuales, intervenciones y estructuras verificadas por restricciones.
Y la forma en que lo hacen es increíble:
En lugar de entrenar un modelo causal especializado, interrogan al LLM como un científico:
→ extraer un gráfico causal candidato del texto
→ pedir al modelo que verifique independencias condicionales
→ detectar contradicciones
→ revisar la estructura
→ probar contrafactuales y predicciones intervinientes
→ iterar hasta que el modelo causal se estabilice
El resultado es algo que nunca hemos tenido antes:
un sistema causal construido dentro del LLM utilizando su propio conocimiento latente del mundo.
A través de benchmarks sintéticos, del mundo real y dominios desordenados, estos LCMs superan a los métodos clásicos de descubrimiento causal porque aprovechan el enorme conocimiento previo del LLM en lugar de solo correlaciones locales.
¿Y el razonamiento contrafactual?
Sorprendentemente fuerte.
El modelo puede responder preguntas de "qué pasaría si" que los algoritmos estándar no pueden resolver, simplemente porque ya "sabe" cosas sobre el mundo que esos algoritmos no pueden inferir solo a partir de los datos.
Este documento insinúa un futuro donde los LLMs no son solo máquinas de patrones....

Parte superior
Clasificación
Favoritos
