I den generelle token-inngangen og -utgangen til AI-koding er det en universell lov, det vil si at jo lavere andel av kodedelen, jo bedre er kvaliteten på koden. Kvantitativ endring kan forårsake kvalitativ endring, men dette beløpet er mye mer høyt, og ikke mengden heap-kode. Men problemet med mange modeller nå er at det kan være for mye kode i treningsstadiet, og de sender ofte ut og fungerer bare i retning av koden. Hvis vi ikke hadde avbrutt ham gjennom agenten konstruert av prompten eller et annet ytre miljø, ville han ha skrevet mer og mer energisk. Det er ikke det at hvis du skriver for mye kode, må han ta feil. I stedet bør andelen reduseres, og det trengs et stort antall andre tekstbeskrivelser for å sortere ut alle detaljene gjentatte ganger, granske igjen og igjen, bestemme i forskjellige skjemaer igjen og igjen, og gjentatte ganger vandre rundt på det generelle og mikroskopiske nivået, og undersøke problemet fra forskjellige perspektiver. Sørg for å finne en måte å stille spørsmål på, eller skrive dokumenter, eller lese dokumenter, eller la ham se på dem igjen, eller gå på nettet for å finne referanser, dette er modne og effektive metoder, kort sagt, bruk andre ting for å redusere andelen kode. Dette er ikke en streng årsakssammenheng, men den er høyst relevant i de fleste prosesser. Jo flere ting utenfor koden er gitt, jo lavere er andelen kode, og jo bedre har den en tendens til å bli skrevet. Så enkelt er det.