Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na entrada e saída geral do token da codificação de IA, existe uma lei universal, ou seja, quanto menor a proporção da parte do código, melhor a qualidade do código.
A mudança quantitativa pode causar mudança qualitativa, mas essa quantidade é muito mais amontoada, e não a quantidade de código de heap.
Mas o problema com muitos modelos agora é que pode haver muito código no estágio de treinamento, e eles geralmente produzem e funcionam apenas na direção do código.
Se não o tivéssemos interrompido por meio do agente construído pelo prompt ou algum outro ambiente externo, ele teria escrito cada vez mais vigorosamente.
Não é que, se você escrever muito código, ele deva estar errado.
Em vez disso, a proporção deve ser reduzida, e um grande número de outras descrições textuais é necessário para classificar repetidamente todos os detalhes, examinar repetidas vezes, determinar em diferentes esquemas repetidas vezes e vagar repetidamente pelos níveis geral e microscópico e examinar o problema de diferentes perspectivas.
Certifique-se de encontrar uma maneira de fazer perguntas, ou escrever documentos, ou ler documentos, ou deixá-lo olhar para eles novamente, ou ir online para encontrar referências, esses são métodos maduros e eficazes, em suma, use outras coisas para reduzir a proporção de código.
Esta não é uma relação causal estrita, mas é altamente relevante na maioria dos processos.
Quanto mais coisas fora do código são fornecidas, menor é a proporção de código e melhor ele tende a ser escrito.
É simples assim.
Melhores
Classificação
Favoritos