Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nell'input e output complessivo dei token di AI coding, c'è una regola generale: minore è la percentuale di codice, migliore è la qualità del codice.
Un cambiamento quantitativo può portare a un cambiamento qualitativo, ma questa quantità deve essere accumulata in modo significativo, e non si tratta di accumulare la quantità di codice.
Ma ora molti modelli hanno il problema che, durante la fase di addestramento, il peso del codice è eccessivo; spesso continuano a generare output che si concentrano solo sulla direzione del codice.
Se non interveniamo con agenti costruiti tramite prompt o altri ambienti esterni, continueranno a scrivere sempre di più.
Non si tratta di scrivere molto codice, il che significa necessariamente che sia sbagliato.
Ma la proporzione deve essere ridotta; è necessario avere una grande quantità di altre descrizioni testuali per chiarire ripetutamente tutti i dettagli, riflettendo più e più volte, determinando in diverse soluzioni, oscillando continuamente tra il generale e il microscopico, esaminando il problema da diverse prospettive.
È fondamentale trovare modi per porre domande, scrivere documenti, leggere file, farlo rivedere, o cercare riferimenti online; tutti questi sono metodi maturi ed efficaci. In sintesi, utilizzare altre cose per ridurre il peso del codice.
Non si tratta di una relazione causale rigorosa, ma è altamente correlata nella maggior parte dei processi.
Più materiale non relativo al codice viene fornito, minore sarà la proporzione di codice, e di solito scriveranno meglio.
È così semplice.
Principali
Ranking
Preferiti