Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
В общем вводе и выводе токенов в AI coding существует универсальный закон: чем меньше доля кода, тем лучше качество кода.
Количественные изменения могут привести к качественным, но это количество должно быть значительным, и это не количество кода.
Но сейчас многие модели сталкиваются с проблемой, что, возможно, на этапе обучения доля кода слишком велика, и они часто продолжают выводить код, не останавливаясь.
Если только мы не прервем их с помощью конструкций подсказок или других внешних факторов, они будут писать все больше и больше.
Это не значит, что если кода много, он обязательно неправильный.
Скорее, доля должна быть снижена, необходимо иметь большое количество других текстовых описаний, чтобы многократно прояснять все детали, снова и снова анализировать, снова и снова определять в разных вариантах, постоянно колеблясь между общим и микроскопическим, рассматривая проблему с разных точек зрения.
Обязательно нужно найти способ задавать вопросы, писать документы, читать файлы, или заставить его еще раз посмотреть, или искать справочные материалы в интернете — все это зрелые и эффективные методы, в общем, использовать что-то другое, чтобы снизить долю кода.
Это не строгая причинно-следственная связь, но в большинстве процессов это высоко связано.
Чем больше информации вне кода, тем меньше его доля, и, как правило, тем лучше он написан.
Все так просто.
Топ
Рейтинг
Избранное