Quindi fammi capire. Inference ha: 1. Una rete decentralizzata che fornisce inferenza LLM al prezzo dell'elettricità 2. Le competenze per l'addestramento e il servizio dei modelli per rendere i modelli super economici, specialmente per compiti specializzati 3. Accordi con i data center per affittare capacità sottoutilizzata a tariffe enormemente scontate 4. Un'API di inferenza batch progettata per scalare a miliardi di richieste E @paulg ancora non ci segue? Questa è una stronzata.
3,04K