Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dalam keseluruhan input dan output token pengkodean AI, ada hukum universal, yaitu semakin rendah proporsi bagian kode, semakin baik kualitas kode.
Perubahan kuantitatif dapat menyebabkan perubahan kualitatif, tetapi jumlah ini jauh lebih menumpuk, dan bukan jumlah kode tumpukan.
Tetapi masalah dengan banyak model sekarang adalah bahwa mungkin ada terlalu banyak kode dalam tahap pelatihan, dan mereka sering menghasilkan dan hanya bekerja ke arah kode.
Jika kami tidak memotongnya melalui agen yang dibangun oleh prompt atau lingkungan eksternal lainnya, dia akan menulis lebih dan lebih bersemangat.
Bukannya jika Anda menulis terlalu banyak kode, dia pasti salah.
Sebaliknya, proporsi harus dikurangi, dan sejumlah besar deskripsi tekstual lainnya diperlukan untuk berulang kali memilah semua detail, meneliti lagi dan lagi, menentukan dalam skema yang berbeda lagi dan lagi, dan berulang kali mengembara di sekitar tingkat keseluruhan dan mikroskopis, dan memeriksa masalah dari perspektif yang berbeda.
Pastikan untuk menemukan cara untuk mengajukan pertanyaan, atau menulis dokumen, atau membaca dokumen, atau biarkan dia melihatnya lagi, atau online untuk mencari referensi, ini adalah metode yang matang dan efektif, singkatnya, gunakan hal-hal lain untuk mengurangi proporsi kode.
Ini bukan hubungan kausal yang ketat, tetapi sangat relevan dalam sebagian besar proses.
Semakin banyak hal di luar kode yang diberikan, semakin rendah proporsi kode, dan semakin baik cenderung ditulis.
Sesederhana itu.
Teratas
Peringkat
Favorit