Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
V celkovém vstupu a výstupu tokenu kódování AI platí univerzální zákon, to znamená, že čím nižší je podíl části kódu, tím lepší je kvalita kódu.
Kvantitativní změna může způsobit kvalitativní změnu, ale toto množství je mnohem více nahromaděno, a ne množství kódu haldy.
Problém s mnoha modely však nyní spočívá v tom, že ve fázi trénování může být příliš mnoho kódu a často vycházejí a fungují pouze ve směru kódu.
Kdybychom ho nepřerušili prostřednictvím činitele vytvořeného podnětem nebo nějakým jiným vnějším prostředím, psal by stále energičtěji.
Není to tak, že když napíšete příliš mnoho kódu, musí se mýlit.
Místo toho by se měl tento podíl snížit a je zapotřebí velkého množství dalších textových popisů, které by opakovaně třídily všechny detaily, znovu a znovu je zkoumaly, určovaly znovu a znovu v různých schématech a opakovaně bloudily po celkové a mikroskopické úrovni a zkoumaly problém z různých perspektiv.
Ujistěte se, že najdete způsob, jak klást otázky, nebo psát dokumenty, nebo číst dokumenty, nebo ho nechat se na ně znovu podívat nebo jít online hledat reference, to jsou vyspělé a efektivní metody, zkrátka používejte jiné věci ke snížení podílu kódu.
Nejedná se o striktní kauzální vztah, ale je vysoce relevantní ve většině procesů.
Čím více věcí mimo kód je uvedeno, tím nižší je podíl kódu a tím lépe se píše.
Je to tak jednoduché.
Top
Hodnocení
Oblíbené