Na entrada e saída geral do token da codificação de IA, existe uma lei universal, ou seja, quanto menor a proporção da parte do código, melhor a qualidade do código. A mudança quantitativa pode causar mudança qualitativa, mas essa quantidade é muito mais amontoada, e não a quantidade de código de heap. Mas o problema com muitos modelos agora é que pode haver muito código no estágio de treinamento, e eles geralmente produzem e funcionam apenas na direção do código. Se não o tivéssemos interrompido por meio do agente construído pelo prompt ou algum outro ambiente externo, ele teria escrito cada vez mais vigorosamente. Não é que, se você escrever muito código, ele deva estar errado. Em vez disso, a proporção deve ser reduzida, e um grande número de outras descrições textuais é necessário para classificar repetidamente todos os detalhes, examinar repetidas vezes, determinar em diferentes esquemas repetidas vezes e vagar repetidamente pelos níveis geral e microscópico e examinar o problema de diferentes perspectivas. Certifique-se de encontrar uma maneira de fazer perguntas, ou escrever documentos, ou ler documentos, ou deixá-lo olhar para eles novamente, ou ir online para encontrar referências, esses são métodos maduros e eficazes, em suma, use outras coisas para reduzir a proporção de código. Esta não é uma relação causal estrita, mas é altamente relevante na maioria dos processos. Quanto mais coisas fora do código são fornecidas, menor é a proporção de código e melhor ele tende a ser escrito. É simples assim.