Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
În intrarea și ieșirea generală a codării AI, există o lege universală, adică cu cât proporția părții de cod este mai mică, cu atât calitatea codului este mai bună.
Schimbarea cantitativă poate provoca schimbări calitative, dar această cantitate este mult mai mare, și nu cantitatea de cod heap.
Dar problema cu multe modele acum este că poate exista prea mult cod în etapa de antrenament și adesea ies și funcționează doar în direcția codului.
Dacă nu l-am fi întrerupt prin agentul construit de prompt sau prin alt mediu extern, ar fi scris din ce în ce mai viguros.
Nu este că dacă scrii prea mult cod, trebuie să greșească.
În schimb, proporția ar trebui redusă și este nevoie de un număr mare de alte descrieri textuale pentru a sorta în mod repetat toate detaliile, a examina din nou și din nou, a determina în diferite scheme din nou și din nou și din nou și în mod repetat să rătăcească în jurul nivelului general și microscopic și să examineze problema din perspective diferite.
Asigurați-vă că găsiți o modalitate de a pune întrebări, sau de a scrie documente, sau de a citi documente, sau de a-l lăsa să se uite din nou la ele, sau de a intra online pentru a găsi referințe, acestea sunt metode mature și eficiente, pe scurt, folosiți alte lucruri pentru a reduce proporția de cod.
Aceasta nu este o relație cauzală strictă, dar este foarte relevantă în majoritatea proceselor.
Cu cât sunt date mai multe lucruri în afara codului, cu atât proporția codului este mai mică și cu atât tinde să fie mai bine scris.
Este atât de simplu.
Limită superioară
Clasament
Favorite