Jetzt, da wir ein großes Hindernis überwunden haben – zu demonstrieren, dass dezentrales AI-Training möglich ist – bringt uns dieses Wissen zur nächsten Überlegung über die Rolle des dezentralen AI-Inferenz-Stacks. Da Netzwerke Modelle erzeugen können, wird dezentrale Inferenz *viel* interessanter. Warum? Nun, zuvor bedeutete dezentrale Inferenz, in der Lage zu sein, ein d-Netzwerk zu nutzen und Modell-Ausgaben bereitzustellen. Die Modelle waren traditionelle Open- oder Closed-Source-Modelle. Und das Ziel war es, die Kosten zu senken, damit der Kunde eine d-Inferenz gegenüber einer regulären bevorzugt. Aber das ist problematisch bei der d-Inferenz, denn das d- macht die Inferenz tatsächlich teurer (mit einigen spekulativen Lösungen, die aufregendste ist die Subvention). Wenn wir jedoch wissen, dass Netzwerke Modelle erzeugen und kollektiv *besitzen* können, dann wird die Inferenz der Punkt, an dem Einnahmen generiert werden. Kunden *müssen* zum Netzwerk gehen, um Modell-Ausgaben zu erhalten, und viele Tokenisierungspläne werden von dieser Einrichtung abhängen. Wenn Sie beispielsweise deAI-Modelle tokenisieren möchten, müssen Sie den Inferenz-Einnahmenstrom an Token-Inhaber umleiten. Dezentrale Inferenz ist ein spannendes Gebiet, über das man nachdenken kann, aber es wird zu einem *kritischen* Bereich, wenn wir uns hinsetzen, um die Token-Modelle des deAI-Raums zu entwickeln!