Sekarang setelah kami menyelesaikan rintangan besar - menunjukkan bahwa pelatihan AI terdesentralisasi dimungkinkan - pengetahuan ini membawa kita ke tahap pemikiran berikutnya tentang peran tumpukan AI terdesentralisasi inferensi. Mengingat bahwa jaringan dapat menghasilkan model, inferensi terdesentralisasi menjadi *jauh* lebih menarik. Mengapa? Nah, inferensi terdesentralisasi sebelumnya berarti dapat mengambil d-network dan menyajikan output model. Modelnya adalah model sumber terbuka atau tertutup tradisional. Dan nama permainannya adalah menurunkan biaya sehingga pelanggan lebih memilih d-inferensi daripada yang biasa. Tapi ini bermasalah dalam d-inferensi, karena d- sebenarnya membuat kesimpulan lebih mahal (dengan beberapa solusi spekulatif, yang paling menarik adalah subsidi). Namun, jika kita tahu bahwa jaringan dapat menghasilkan dan secara kolektif *memiliki* model, maka inferensi menjadi titik di mana pendapatan dihasilkan. Pelanggan *harus* pergi ke jaringan untuk mendapatkan output model, dan begitu banyak skema tokenisasi akan bergantung pada fasilitas ini. Misalnya, jika Anda ingin mentokenisasi model deAI, Anda harus mengalihkan aliran pendapatan inferensi ke pemegang token. Inferensi terdesentralisasi adalah area yang keren untuk dipikirkan, tetapi menjadi area *kritis* ketika kita duduk untuk membangun model token ruang deAI!