Nell'input e output complessivo dei token di AI coding, c'è una regola generale: minore è la percentuale di codice, migliore è la qualità del codice. Un cambiamento quantitativo può portare a un cambiamento qualitativo, ma questa quantità deve essere accumulata in modo significativo, e non si tratta di accumulare la quantità di codice. Ma ora molti modelli hanno il problema che, durante la fase di addestramento, il peso del codice è eccessivo; spesso continuano a generare output che si concentrano solo sulla direzione del codice. Se non interveniamo con agenti costruiti tramite prompt o altri ambienti esterni, continueranno a scrivere sempre di più. Non si tratta di scrivere molto codice, il che significa necessariamente che sia sbagliato. Ma la proporzione deve essere ridotta; è necessario avere una grande quantità di altre descrizioni testuali per chiarire ripetutamente tutti i dettagli, riflettendo più e più volte, determinando in diverse soluzioni, oscillando continuamente tra il generale e il microscopico, esaminando il problema da diverse prospettive. È fondamentale trovare modi per porre domande, scrivere documenti, leggere file, farlo rivedere, o cercare riferimenti online; tutti questi sono metodi maturi ed efficaci. In sintesi, utilizzare altre cose per ridurre il peso del codice. Non si tratta di una relazione causale rigorosa, ma è altamente correlata nella maggior parte dei processi. Più materiale non relativo al codice viene fornito, minore sarà la proporzione di codice, e di solito scriveranno meglio. È così semplice.