В общем вводе и выводе токенов в AI coding существует универсальный закон: чем меньше доля кода, тем лучше качество кода. Количественные изменения могут привести к качественным, но это количество должно быть значительным, и это не количество кода. Но сейчас многие модели сталкиваются с проблемой, что, возможно, на этапе обучения доля кода слишком велика, и они часто продолжают выводить код, не останавливаясь. Если только мы не прервем их с помощью конструкций подсказок или других внешних факторов, они будут писать все больше и больше. Это не значит, что если кода много, он обязательно неправильный. Скорее, доля должна быть снижена, необходимо иметь большое количество других текстовых описаний, чтобы многократно прояснять все детали, снова и снова анализировать, снова и снова определять в разных вариантах, постоянно колеблясь между общим и микроскопическим, рассматривая проблему с разных точек зрения. Обязательно нужно найти способ задавать вопросы, писать документы, читать файлы, или заставить его еще раз посмотреть, или искать справочные материалы в интернете — все это зрелые и эффективные методы, в общем, использовать что-то другое, чтобы снизить долю кода. Это не строгая причинно-следственная связь, но в большинстве процессов это высоко связано. Чем больше информации вне кода, тем меньше его доля, и, как правило, тем лучше он написан. Все так просто.