Na entrada e saída de tokens do coding de AI, há uma regra geral: quanto menor a proporção de código, melhor a qualidade do código. Mudanças quantitativas podem levar a mudanças qualitativas, mas essa quantidade precisa ser acumulada, e não a quantidade de código. Mas agora, o problema de muitos modelos é que, durante a fase de treinamento, a proporção de código é excessiva, e eles frequentemente saem escrevendo apenas na direção do código. Se não formos nós, através de agentes construídos com palavras-chave ou outros ambientes externos, a interromper, eles continuarão escrevendo cada vez mais. Não é que escrever muito código signifique que esteja necessariamente errado. Mas a proporção precisa ser reduzida; é necessário ter uma grande quantidade de descrições textuais para esclarecer repetidamente todos os detalhes, analisando e reanalisando, confirmando repetidamente em diferentes propostas, navegando entre o geral e o micro, examinando o problema de diferentes perspectivas. É essencial encontrar maneiras de fazer perguntas, ou escrever documentos, ou ler arquivos, ou fazer com que ele revise, ou procurar referências na internet; todas essas são abordagens maduras e eficazes. Em suma, usar outras coisas para reduzir a proporção de código. Não é uma relação de causa e efeito estrita, mas na maioria dos processos, é altamente correlacionada. Quanto mais informações fora do código forem fornecidas, menor será a proporção de código, e geralmente isso resulta em uma escrita melhor. É tão simples assim.