Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
W ogólnym wprowadzeniu i wyjściu tokenów w kodowaniu AI istnieje powszechna zasada, że im mniejszy udział kodu, tym lepsza jakość kodu.
Ilość może prowadzić do jakości, ale ta ilość musi być znaczna, a nie chodzi o ilość kodu.
Jednak obecnie wiele modeli ma problem, że w fazie treningu zbyt duży nacisk kładzie się na kod, przez co często generują tylko kod.
Jeśli nie przerwiemy ich działania za pomocą agentów skonstruowanych z podpowiedzi lub innych zewnętrznych środowisk, będą pisać coraz więcej.
Nie oznacza to, że pisanie dużej ilości kodu zawsze prowadzi do błędów.
Chodzi o to, że proporcja musi być zmniejszona, potrzebne są obszerne opisy tekstowe, aby wielokrotnie wyjaśniać wszystkie szczegóły, analizować je raz po raz, ustalać w różnych rozwiązaniach, wciąż oscylując między całością a mikroskalą, patrząc na problem z różnych perspektyw.
Należy znaleźć sposób na zadawanie pytań, pisanie dokumentów, czytanie plików, ponowne przeglądanie lub szukanie odniesień w Internecie; to wszystko są dojrzałe i skuteczne metody, w skrócie, użyj innych rzeczy, aby zmniejszyć udział kodu.
To nie jest ścisła relacja przyczynowo-skutkowa, ale w większości procesów jest to wysoce powiązane.
Im więcej dostarczysz materiałów poza kodem, tym mniejszy będzie jego udział, co często prowadzi do lepszego pisania.
To takie proste.
Najlepsze
Ranking
Ulubione