W ogólnym wprowadzeniu i wyjściu tokenów w kodowaniu AI istnieje powszechna zasada, że im mniejszy udział kodu, tym lepsza jakość kodu. Ilość może prowadzić do jakości, ale ta ilość musi być znaczna, a nie chodzi o ilość kodu. Jednak obecnie wiele modeli ma problem, że w fazie treningu zbyt duży nacisk kładzie się na kod, przez co często generują tylko kod. Jeśli nie przerwiemy ich działania za pomocą agentów skonstruowanych z podpowiedzi lub innych zewnętrznych środowisk, będą pisać coraz więcej. Nie oznacza to, że pisanie dużej ilości kodu zawsze prowadzi do błędów. Chodzi o to, że proporcja musi być zmniejszona, potrzebne są obszerne opisy tekstowe, aby wielokrotnie wyjaśniać wszystkie szczegóły, analizować je raz po raz, ustalać w różnych rozwiązaniach, wciąż oscylując między całością a mikroskalą, patrząc na problem z różnych perspektyw. Należy znaleźć sposób na zadawanie pytań, pisanie dokumentów, czytanie plików, ponowne przeglądanie lub szukanie odniesień w Internecie; to wszystko są dojrzałe i skuteczne metody, w skrócie, użyj innych rzeczy, aby zmniejszyć udział kodu. To nie jest ścisła relacja przyczynowo-skutkowa, ale w większości procesów jest to wysoce powiązane. Im więcej dostarczysz materiałów poza kodem, tym mniejszy będzie jego udział, co często prowadzi do lepszego pisania. To takie proste.