In de algehele tokeninvoer en -uitvoer van AI-codering is er een algemene regel: hoe lager het aandeel van de code, hoe beter de kwaliteit van de code. Kwantiteit kan kwaliteit veroorzaken, maar deze hoeveelheid moet groot zijn, en het gaat niet om de hoeveelheid code. Maar nu is het probleem bij veel modellen dat ze mogelijk in de trainingsfase te veel nadruk leggen op code; ze blijven maar output genereren en gaan steeds meer in de richting van code. Als we hem niet onderbreken met een agent die we via prompts hebben geconstrueerd of andere externe omgevingen, zal hij steeds enthousiaster gaan schrijven. Het betekent niet dat als er veel code geschreven wordt, het per se fout is. Het gaat erom dat het aandeel moet worden verlaagd; er moet een grote hoeveelheid andere tekstuele beschrijvingen zijn om alle details herhaaldelijk op te helderen, keer op keer te overdenken, keer op keer in verschillende plannen te bevestigen, en herhaaldelijk te navigeren tussen het geheel en het micro-niveau, vanuit verschillende perspectieven naar het probleem te kijken. Je moet manieren vinden om vragen te stellen, documenten te schrijven, bestanden te lezen, hem opnieuw te laten kijken, of online naar referenties te zoeken; dit zijn allemaal volwassen en effectieve methoden. Kortom, gebruik andere dingen om het aandeel van de code te verlagen. Dit is geen strikte oorzaak-gevolgrelatie, maar in de meeste processen is het sterk gerelateerd. Hoe meer dingen buiten de code worden gegeven, hoe lager het aandeel van de code, en hoe beter het vaak geschreven wordt. Zo simpel is het.