En la entrada y salida general de tokens en la codificación de AI, hay una regla general: cuanto menor sea la proporción de código, mejor será la calidad del código. Un cambio cuantitativo puede provocar un cambio cualitativo, pero esta cantidad debe acumularse mucho, y no se trata de acumular la cantidad de código. Sin embargo, el problema de muchos modelos en la actualidad es que, durante la fase de entrenamiento, la proporción de código es demasiado alta, y a menudo, al generar, se enfocan únicamente en el código. Si no interrumpimos su proceso con un agente construido a través de palabras clave o algún otro entorno externo, seguirán escribiendo cada vez más. No significa que si se escribe mucho código, necesariamente esté mal. Sino que la proporción debe disminuir, y se necesita una gran cantidad de descripciones textuales para aclarar todos los detalles una y otra vez, reflexionando repetidamente, determinando en diferentes propuestas, oscilando entre lo general y lo micro, examinando el problema desde diferentes perspectivas. Es fundamental encontrar formas de hacer preguntas, escribir documentos, leer archivos, hacer que revise, o buscar referencias en línea; todos estos son métodos maduros y efectivos. En resumen, se debe utilizar otros elementos para reducir la proporción de código. No es una relación causal estricta, pero en la mayoría de los procesos es altamente relevante. Cuanto más se proporciona fuera del código, menor es la proporción de código, y a menudo, se escribe mejor. Así de simple.