I den övergripande tokeninmatningen och utmatningen av AI-kodning finns det en universell lag, det vill säga att ju lägre andel koddelen är, desto bättre är kvaliteten på koden. Kvantitativ förändring kan orsaka kvalitativ förändring, men den här mängden är mycket mer heapad och inte mängden heapkod. Men problemet med många modeller nu är att det kan finnas för mycket kod i träningsfasen, och de matar ofta ut och fungerar bara i kodens riktning. Om vi inte hade avbrutit honom genom den agent som prompten konstruerat eller någon annan yttre miljö, skulle han ha skrivit mer och mer kraftfullt. Det är inte så att om du skriver för mycket kod måste han ha fel. I stället bör andelen minskas, och det behövs ett stort antal andra textbeskrivningar för att gång på gång reda ut alla detaljer, skärskåda om och om igen, bestämma i olika scheman om och om igen, och gång på gång vandra runt på övergripande och mikroskopiska nivåer, och undersöka problemet ur olika perspektiv. Se till att hitta ett sätt att ställa frågor, eller skriva dokument, eller läsa dokument, eller låt honom titta på dem igen, eller gå online för att hitta referenser, det här är mogna och effektiva metoder, kort sagt, använd andra saker för att minska andelen kod. Detta är inte ett strikt orsakssamband, men det är högst relevant i de flesta processer. Ju fler saker utanför koden som ges, desto lägre är andelen kod och desto bättre tenderar den att skrivas. Så enkelt är det.