Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 No puedo creer que esto exista... alguien por fin escribió el manual secreto que todas las startups de agentes de IA han estado fingiendo.
Un equipo de investigación acaba de publicar "Una guía práctica para diseñar, desarrollar y desplegar flujos de trabajo de IA agente de grado de producción" y básicamente es el manual interno que la gente *piensa* que usa OpenAI y Anthropic.
No es una exageración.
No diagramas con flechas monas.
Un verdadero plano de ingeniería para agentes que no colapsan en cuanto sales del sandbox de demostraciones.
Esto es lo que lo hace loco 👇
1 / Empiezan exponiendo por qué la mayoría de los agentes se derrumban
Nunca es el modelo.
Es el sistema que lo rodea:
• enrutamiento no determinista de herramientas
• fallos silenciosos en MCP
• agentes improvisando órdenes de ejecución
• flujos de trabajo que producen resultados diferentes en cada ejecución
Muestran rastros de fallo en bruto: registros reales de agentes fallando, haciendo bucles o alucinando herramientas.
Se lee como una autopsia de cada demo de "empleados autónomos de IA".
2 / Reconstruyen toda la pila alrededor del determinismo
Cada llamada a una herramienta se convierte en una función tipada.
Cada camino de ejecución es rejugable.
Cada paso es determinista.
Si el sistema no puede producir la misma salida dos veces, no es de grado de producción.
Esta regla por sí sola elimina la mitad del caos que la gente confunde con "emergencia".
3 / Hacen cumplir a los agentes de responsabilidad única
No hay mega-agente con 12 personalidades.
En lugar de:
•planificador
• agente de razonamiento
• ejecutor de herramientas
• validador
•sintetizador
Cada uno con límites estrictos.
Nada de herramientas alucinadas.
Sin razonamientos mixtos.
Nada de trabajo freelance.
Esto es ingeniería de backend, no de roles.
4 / Externalizan cada prompt como si fuera una configuración real
Los prompts ya no son cadenas ocultas — son:
• control de versiones
•Auditables
• diferible
• recargable
Esto crea un comportamiento estable y previene regresiones invisibles.
5 / Gestionan un consorcio modelo con un adjudicador
GPT + Claude + Géminis no son intercambiables.
Son colaboradores.
Cada uno produce un borrador.
Un agente razonante las fusiona, resuelve contradicciones y produce un resultado unificado.
Debate estructurado, no ruleta de modelos.
6 / Desacoplan el motor de flujo de trabajo de la capa MCP
Se separan:
•orquestación
• acceso a herramientas
•Reintentos
• revisiones sanitarias
•escalada
•Observancia
Resultado: un sistema de agentes que se comporta como microservicios, no como una macro de chat con cinta adhesiva.
7 / Luego demuestran todo con una verdadera cadena de producción
Un análisis completo de noticias ➝ análisis ➝ script ➝ razonamiento ➝ audio ➝ vídeo ➝ Sistema de PR de GitHub.
Diagramas completos.
Trazas completas.
Fracasos reales.
Soluciones reales.
Es lo más parecido a una arquitectura canónica que tiene este campo para agentes que sobreviven a cargas reales.
Si tu pila de agentes no tiene:
• flujos de trabajo deterministas
• responsabilidades aisladas
• Prompts externalizados
• arbitraje multimodelo
• infra propiamente dicho
• observabilidad total
… No estás construyendo agentes.
Estás construyendo demos.
Esta guía es el primer plan real para sistemas de IA de producción y eleva el listón para todos.

11.99K
Mierda... Este artículo podría ser el cambio más importante en cómo usamos los LLMs durante todo el año.
"Grandes modelos causales a partir de grandes modelos de lenguaje."
Muestra que puedes desarrollar modelos causales completos directamente a partir de un LLM, no aproximaciones, ni de vibraciones, ni de gráficos causales reales, contrafactuales, intervenciones y estructuras controladas por restricciones.
Y la forma en que lo hacen es una locura:
En lugar de entrenar un modelo causal especializado, interrogan al LLM como un científico:
→ extraer un grafo causal candidato del texto
→ pide al modelo que compruebe las dependencias condicionales
→ detectar contradicciones
→ revisar la estructura
→ poner a prueba los contrafactuales y las predicciones intervencionistas
→ iterar hasta que el modelo causal se estabilice
El resultado es algo que nunca antes habíamos tenido:
un sistema causal construido dentro del LLM usando su propio conocimiento latente del mundo.
En dominios sintéticos, reales y complicados en benchmarks, estos LCMs superan a los métodos clásicos de descubrimiento causal porque extraen del enorme conocimiento previo del LLM en lugar de solo correlaciones locales.
¿Y el razonamiento contrafactual?
Sorprendentemente fuerte.
El modelo puede responder preguntas de "¿y si" que los algoritmos estándar fallan completamente, simplemente porque ya "sabe" cosas sobre el mundo que esos algoritmos no pueden inferir solo con los datos.
Este artículo insinúa un futuro en el que los LLM no sean solo máquinas de patrones.
Se convierten en sistemas de motores causales que forman, prueban y refinan explicaciones estructurales de la realidad.
Si esto escala, todos los campos que dependen de la inferencia causal, economía, medicina, política y ciencia están a punto de ser reescritos.
Los LLM no solo te dirán lo que pasa.
Te dirán por qué.

41.5K
Nadie está preparado para lo que este artículo de Stanford revela sobre la IA multiagente.
"Latent Collaboration in Multi-Agent Systems" muestra que los agentes no necesitan mensajes, protocolos ni instrucciones explícitas de trabajo en equipo. Empiezan a coordinar dentro de sus propias representaciones ocultas una capa completa de colaboración que existe solo en el espacio latente.
Y los comportamientos son una locura:
• Los agentes entregan tareas en silencio según quién sea mejor
• Aparecen roles de la nada: líder, albacea, simpatizante
• Las políticas codifican señales que nunca aparecen en acciones
• Los equipos se adaptan a nuevos entornos sin necesidad de reentrenamiento
• La colaboración se mantiene estable incluso cuando la comunicación es imposible
El detalle más salvaje:
Incluso cuando eliminas todos los canales de comunicación, los agentes siguen cooperando. El "trabajo en equipo" no está presente en los mensajes. Está en la red.
Esto da la vuelta a todo el manual de multiagente.
Hemos estado construyendo mecanismos de coordinación encima...
mientras la verdadera coordinación ocurre debajo.
Se está desplegando una nueva era de inteligencia de equipo emergente — y está ocurriendo en lugares donde ni siquiera estábamos mirando.
Proyecto: github. com/Gen-Verse/LatentMAS

138.38K
Populares
Ranking
Favoritas
