AI コーディングの全体的なトークンの入出力には、コード部分の割合が低いほどコードの品質が向上するという普遍的な法則があります。 量的変化は質的変化を引き起こす可能性がありますが、この量はヒープコードの量ではなく、はるかにヒープされます。 しかし、現在多くのモデルの問題は、トレーニング段階でコードが多すぎる可能性があり、多くの場合、出力され、コードの方向にのみ機能することです。 プロンプトによって構築されたエージェントやその他の外部環境を通じて彼の中断がなかったら、彼はますます精力的に書いていたでしょう。 コードを書きすぎると、彼が間違っているに違いないというわけではありません。 代わりに、比率を減らす必要があり、すべての詳細を繰り返し整理し、何度も精査し、何度も異なるスキームで決定し、全体的および微視的なレベルを繰り返しさまよい、さまざまな視点から問題を調べるために、他の多数のテキスト説明が必要です。 質問する方法を見つけたり、文書を書いたり、文書を読んだり、もう一度見てもらったり、オンラインで参考文献を見つけたり、これらは成熟した効果的な方法であり、要するに、コードの割合を減らすために他のものを使用します。 これは厳密な因果関係ではありませんが、ほとんどのプロセスで非常に関連性があります。 コード外のものが与えられるほどコードの割合が低くなり、よりよく書かれる傾向がある。 それはとても簡単です。