熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
在AI coding的整體 token 輸入和輸出裡,有一個普遍性的規律,就是代碼的部分佔比越低,那麼代碼的質量也就越好。
量變可以引起質變,但這個量要堆得多,而且不是堆代碼的量。
但現在很多模型的問題是,可能是在訓練階段代碼的比重過多,他們經常輸出著輸出著就一個勁的只往代碼的方向去幹。
如果不是我們通過提示詞構造的agent或者其他一些外部環境打斷他 ,他會越寫越來勁。
不是說代碼寫得多,他就一定錯。
而是比例要降低,需要有大量的其他文本性的描述來反覆的理清所有細節,一次又一次的推敲,一次又一次的在不同的方案中確定,反反覆覆地遊走於整體和微觀,從不同的視角來審視問題。
一定要想辦法用提問,或者寫文檔,或者讀文件,或者讓他再看一看,或者上網找參考,這些都是成熟有效的方法,總之,拿別的東西來降低代碼的比重。
這不是一個嚴格的因果關係,但在大多數流程中是高度相關的。
代碼之外的東西給得越多,代碼的比例就越低,也就往往寫得越好。
就這麼簡單。
熱門
排行
收藏