Pensé que esta publicación era una sátira cuando la leí. Uso Claude Code hasta 8 horas al día y tuve que crear un comando personalizado en Flashbacker llamado hallucination-hunter que esencialmente dice "ve a buscar todo el código falso que implementaste en las últimas horas que no hace nada, finge hacer cosas, intenta hacer cosas mágicas, etc." Tengo que usarlo tanto para Claude 4 Sonnet y Opus como para GPT-5 y Qwen-Coder. El hecho de que la gente no hable de ello no significa que sea un problema para resolver. Un modelo benchmaxed que pretende resolver alucinaciones sobre información / hechos no significa que las resuelva en implementaciones de problemas reales del mundo real. La gente dejó de hablar de eso porque la gente se aburre fácilmente y le gusta hablar sobre la próxima cosa brillante y aterradora para mantenerlos enojados / asustados / preocupados.
Matt Turck
Matt Turckhace 20 horas
Es notable que las alucinaciones de IA pasaron de ser el tema más importante hace aproximadamente un año a un problema en gran medida solucionado del que la gente ya casi no habla hoy.
4.43K