Vibe Coding no es tan bueno en estos días. La codificación de vibración imaginaria debería ser que le das una tarea, la IA piensa y te hace algunas preguntas clave, y luego comienza a trabajar durante mucho tiempo, momento en el que puedes reducir la velocidad, beber un vaso de refresco espumoso, ver un video corto y disfrutar de la vida. Y ahora, después de que le diste una tarea, porque no se la explicaste en detalle en un lugar determinado, así que pensó durante 30 minutos y generó algo que era 108,000 millas diferente de lo que querías, estabas enojado y retrocediste, y luego contuviste tu enojo y le explicaste en el mensaje que debes prestar atención a esta parte, lo que se debe hacer, y luego dejar que continúe generando durante 30 minutos, pero solo escuchó parte de lo que te dijo, y luego continuó generando una torre de fresas. Al mismo tiempo, debido a que solo agregaste una parte del aviso, continuó generando muchas torres de fresas en otro lugar, en este momento señalaste enojado su error, y luego dijo: Finalmente entendí, y luego continué generando baba. Después de una larga lucha, finalmente te rendiste y comenzaste a buscar problemas de código por tu cuenta, y pasaste 30 minutos viendo el código que generaba, más enojado se ponía, y se sentía como un pasante copiando un poco de Internet y armando un pedazo de basura. Finalmente, refactorizaste el código con enojo. Esto es más evidente en proyectos más complejos (por ejemplo, que involucran múltiples microservicios, interacciones front-end y back-end, comunicación de middleware, etc.). Así que empiezas a preguntarte por qué otros pueden usar la IA para completar tantos proyectos interesantes mientras dejas que la IA escriba código en un lío. Después de muchas luchas, no se atrevió a preguntar sobre información diversa, con la esperanza de encontrar la forma correcta de interactuar con la IA, y luego continuó comunicándose con la IA después de pensar que la había encontrado, pero lo que generó seguía siendo un trozo de caca. Se pierde tiempo en esto. Érase una vez, Claude Code fue pionero en una nueva era como el rey de la codificación de vibraciones, mejorando el efecto al aumentar la tasa de precisión mediante múltiples ejecuciones. Suponiendo que el contenido generado por IA es solo correcto en un 80%, Claude Code puede generar un código muy bueno aumentando la tasa de precisión a 99 a través de múltiples autopruebas, análisis y modificaciones repetidas. Pero Claude Code aprende lo mismo que el cursor, todo tipo de reducción de inteligencia, restricciones, lo que resulta en una rápida caída en la tasa de precisión originalmente baja, las 4 correcciones originales pueden alcanzar el 99% de precisión, si la tasa correcta después de la reducción de sabiduría es solo del 70%, si el mismo quiere lograr el efecto de las 4 veces anteriores, entonces tiene que hacer 6 correcciones. Además, Claude ha impuesto un límite de uso, lo que resulta en el hecho de que ahora es imposible generar código válido en la misma cantidad de tiempo, incluso si se alcanza el límite. ¿Y por qué Codex es tan elogiado ahora? La razón principal es que le gusta pedir la opinión del usuario, ¿preguntará si hay algún problema con mi solución? ¿Puedes hacer esto?, te daré varios conjuntos de planes sobre cómo mejorar y cómo lograrlo. Esto es bueno porque la IA está intrínsecamente equivocada y, de hecho, su respuesta les está ayudando a resolver el problema de la tasa de precisión insuficiente, de modo que pueda lograr una tasa de precisión de casi el 99% en una generación. Claude Code es un buen producto, pero está empeorando cada vez más porque la tasa de precisión no está a la altura que la gente quiere, la IA es originalmente una gran salida de probabilidad de coincidencia regular, la clave para determinar su rendimiento es si la salida de probabilidad puede ser lo más cercana posible a 1, y la ingeniería es solo usar varios esquemas para permitirle arreglar cerca de 1 muchas veces. Pero la reducción de sabiduría + límite hace que sea cada vez más difícil para él acercarse a 1. Por otro lado, Codex sabía que la IA pura no era confiable, por lo que entregó la tarea de corrección de errores al usuario, cambiando de una herramienta de codificación Vibe a un asistente de IA, y los resultados fueron muy buenos. Estas herramientas de IA también deben pensar en cómo resolver estos problemas cuando la tasa de precisión es insuficiente y la respuesta dada por Codex es muy buena, pero ¿es esta la solución óptima? No necesariamente, pero personalmente creo que la colaboración multiagente sigue siendo efectiva, ya que cada IA tiene su propio método de emparejamiento, generar resultados, verificación cruzada entre múltiples agentes y pensamiento paralelo es la mejor ecuación. Sin embargo, esto definitivamente no les sucederá a estas empresas de modelos de IA, porque definitivamente obligarán a sus propios modelos a estar vinculados, por lo que un tercero es la mejor opción para hacerlo. (No tengo nada que decir, en qué pienso y qué decir)