トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI コーディングの全体的なトークンの入出力には、コード部分の割合が低いほどコードの品質が向上するという普遍的な法則があります。
量的変化は質的変化を引き起こす可能性がありますが、この量はヒープコードの量ではなく、はるかにヒープされます。
しかし、現在多くのモデルの問題は、トレーニング段階でコードが多すぎる可能性があり、多くの場合、出力され、コードの方向にのみ機能することです。
プロンプトによって構築されたエージェントやその他の外部環境を通じて彼の中断がなかったら、彼はますます精力的に書いていたでしょう。
コードを書きすぎると、彼が間違っているに違いないというわけではありません。
代わりに、比率を減らす必要があり、すべての詳細を繰り返し整理し、何度も精査し、何度も異なるスキームで決定し、全体的および微視的なレベルを繰り返しさまよい、さまざまな視点から問題を調べるために、他の多数のテキスト説明が必要です。
質問する方法を見つけたり、文書を書いたり、文書を読んだり、もう一度見てもらったり、オンラインで参考文献を見つけたり、これらは成熟した効果的な方法であり、要するに、コードの割合を減らすために他のものを使用します。
これは厳密な因果関係ではありませんが、ほとんどのプロセスで非常に関連性があります。
コード外のものが与えられるほどコードの割合が低くなり、よりよく書かれる傾向がある。
それはとても簡単です。
トップ
ランキング
お気に入り