Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na entrada e saída de tokens do coding de AI, há uma regra geral: quanto menor a proporção de código, melhor a qualidade do código.
Mudanças quantitativas podem levar a mudanças qualitativas, mas essa quantidade precisa ser acumulada, e não a quantidade de código.
Mas agora, o problema de muitos modelos é que, durante a fase de treinamento, a proporção de código é excessiva, e eles frequentemente saem escrevendo apenas na direção do código.
Se não formos nós, através de agentes construídos com palavras-chave ou outros ambientes externos, a interromper, eles continuarão escrevendo cada vez mais.
Não é que escrever muito código signifique que esteja necessariamente errado.
Mas a proporção precisa ser reduzida; é necessário ter uma grande quantidade de descrições textuais para esclarecer repetidamente todos os detalhes, analisando e reanalisando, confirmando repetidamente em diferentes propostas, navegando entre o geral e o micro, examinando o problema de diferentes perspectivas.
É essencial encontrar maneiras de fazer perguntas, ou escrever documentos, ou ler arquivos, ou fazer com que ele revise, ou procurar referências na internet; todas essas são abordagens maduras e eficazes. Em suma, usar outras coisas para reduzir a proporção de código.
Não é uma relação de causa e efeito estrita, mas na maioria dos processos, é altamente correlacionada.
Quanto mais informações fora do código forem fornecidas, menor será a proporção de código, e geralmente isso resulta em uma escrita melhor.
É tão simples assim.
Top
Classificação
Favoritos