Acum că am depășit un obstacol uriaș - demonstrând că antrenamentul AI descentralizat este posibil - aceste cunoștințe ne aduc la următoarea etapă de gândire despre rolul stivei AI descentralizate de inferență. Având în vedere că rețelele pot produce modele, inferența descentralizată devine mult mai interesantă. De ce? Ei bine, inferența descentralizată anterior însemna să poți lua o rețea D și să servească rezultate ale modelului. Modelele au fost modele tradiționale open or closed source. Iar numele jocului a fost reducerea costurilor, astfel încât clientul să prefere o inferență d față de una obișnuită. Dar acest lucru este problematic în inferența d, deoarece d- face inferența mai scumpă (cu unele soluții speculative, cea mai interesantă fiind subvenția). Cu toate acestea, dacă știm că rețelele pot produce și deține în mod colectiv modele, atunci inferența devine punctul în care sunt generate veniturile. Clienții *trebuie* să meargă în rețea pentru a obține ieșiri ale modelului și atât de multe scheme de tokenizare vor depinde de această facilitate. De exemplu, dacă doriți să tokenizați modele deAI, va trebui să redirecționați fluxul de venituri de inferență către deținătorii de tokenuri. Inferența descentralizată este o zonă interesantă la care să te gândești, dar devine o zonă *critică* atunci când ne așezăm să construim modelele de jetoane ale spațiului deAI!