En la entrada y salida general de tokens de la codificación de IA, existe una ley universal, es decir, cuanto menor sea la proporción de la parte del código, mejor será la calidad del código. El cambio cuantitativo puede causar un cambio cualitativo, pero esta cantidad es mucho más amontonada, y no la cantidad de código de montón. Pero el problema con muchos modelos ahora es que puede haber demasiado código en la etapa de entrenamiento y, a menudo, generan y solo funcionan en la dirección del código. Si no lo hubiéramos interrumpido a través del agente construido por el prompt o algún otro entorno externo, habría escrito cada vez más vigorosamente. No es que si escribes demasiado código, debe estar equivocado. En cambio, la proporción debe reducirse, y se necesita una gran cantidad de otras descripciones textuales para clasificar repetidamente todos los detalles, escudriñar una y otra vez, determinar en diferentes esquemas una y otra vez, y deambular repetidamente por los niveles general y microscópico, y examinar el problema desde diferentes perspectivas. Asegúrese de encontrar una manera de hacer preguntas, escribir documentos, leer documentos, o dejar que los mire nuevamente, o conectarse en línea para encontrar referencias, estos son métodos maduros y efectivos, en resumen, use otras cosas para reducir la proporción de código. Esta no es una relación causal estricta, pero es muy relevante en la mayoría de los procesos. Cuantas más cosas fuera del código se dan, menor es la proporción de código y mejor tiende a escribirse. Es así de simple.