在AI coding的整體 token 輸入和輸出裡,有一個普遍性的規律,就是代碼的部分佔比越低,那麼代碼的質量也就越好。 量變可以引起質變,但這個量要堆得多,而且不是堆代碼的量。 但現在很多模型的問題是,可能是在訓練階段代碼的比重過多,他們經常輸出著輸出著就一個勁的只往代碼的方向去幹。 如果不是我們通過提示詞構造的agent或者其他一些外部環境打斷他 ,他會越寫越來勁。 不是說代碼寫得多,他就一定錯。 而是比例要降低,需要有大量的其他文本性的描述來反覆的理清所有細節,一次又一次的推敲,一次又一次的在不同的方案中確定,反反覆覆地遊走於整體和微觀,從不同的視角來審視問題。 一定要想辦法用提問,或者寫文檔,或者讀文件,或者讓他再看一看,或者上網找參考,這些都是成熟有效的方法,總之,拿別的東西來降低代碼的比重。 這不是一個嚴格的因果關係,但在大多數流程中是高度相關的。 代碼之外的東西給得越多,代碼的比例就越低,也就往往寫得越好。 就這麼簡單。