Nu we een enorme hindernis hebben overwonnen -- het aantonen dat gedecentraliseerde AI-training mogelijk is -- brengt deze kennis ons naar de volgende fase van het nadenken over de rol van de gedecentraliseerde AI-inferentiestack. Aangezien netwerken modellen kunnen produceren, wordt gedecentraliseerde inferentie *veel* interessanter. Waarom? Wel, voorheen betekende gedecentraliseerde inferentie dat je een d-netwerk kon nemen en modeluitvoer kon aanbieden. De modellen waren traditionele open of gesloten source-modellen. En de naam van het spel was kosten verlagen zodat de klant de voorkeur zou geven aan een d-inferentie in plaats van een reguliere. Maar dit is problematisch in d-inferentie, omdat de d- het inferentie eigenlijk duurder maakt (met enkele speculatieve oplossingen, de meest opwindende is subsidie). Echter, als we weten dat netwerken modellen kunnen produceren en collectief *bezitten*, dan wordt inferentie het punt waarop inkomsten worden gegenereerd. Klanten *moeten* naar het netwerk gaan om modeluitvoer te krijgen, en veel tokenisatieschema's zullen van deze faciliteit afhankelijk zijn. Bijvoorbeeld, als je deAI-modellen wilt tokeniseren, moet je de inkomstenstroom van de inferentie omleiden naar tokenhouders. Gedecentraliseerde inferentie is een interessant gebied om over na te denken, maar het wordt een *kritisch* gebied wanneer we gaan zitten om de tokenmodellen van de deAI-ruimte te bouwen!