Nu när vi har klarat av ett stort hinder – och visat att decentraliserad AI-träning är möjlig – leder denna kunskap oss till nästa del av tänkandet om rollen för att dra slutsatser om decentraliserad AI-stack. Med tanke på att nätverk kan producera modeller blir decentraliserad inferens *mycket* mer intressant. Varför? Tja, tidigare innebar decentraliserad inferens att man kunde ta ett d-nätverk och servera modellutdata. Modellerna var traditionella modeller med öppen eller sluten källkod. Och det handlade om att sänka kostnaderna så att kunden skulle föredra en d-inferens jämfört med en vanlig. Men detta är problematiskt i d-inferens, eftersom d- faktiskt gör inferensen dyrare (med vissa spekulativa lösningar, den mest spännande är subvention). Men om vi vet att nätverk kan producera och kollektivt *äga* modeller, blir inferens den punkt där intäkter genereras. Kunder *måste* gå till nätverket för att få modellutdata, och så många tokeniseringsscheman kommer att vara beroende av denna möjlighet. Om du till exempel vill tokenisera deAI-modeller måste du omdirigera intäktsströmmen för inferens till tokeninnehavare. Decentraliserad inferens är ett coolt område att tänka på, men det blir ett *kritiskt* område när vi sätter oss ner för att bygga tokenmodellerna för deAI-utrymmet!