Jadi izinkan saya meluruskan ini. Inferensi memiliki: 1. Jaringan terdesentralisasi yang memasok inferensi LLM dengan harga listrik 2. Pelatihan model dan menyajikan daging untuk membuat model super murah, terutama untuk tugas-tugas khusus 3. Berurusan dengan pusat data untuk menyewa kapasitas yang kurang dimanfaatkan dengan harga diskon besar-besaran 4. API inferensi batch yang dirancang untuk menskalakan hingga miliaran permintaan Dan @paulg masih tidak mengikuti kami? Ini beberapa b.s.
3,05K