Maintenant que nous avons franchi un énorme obstacle -- démontrer que l'entraînement d'IA décentralisée est possible -- cette connaissance nous amène à la prochaine étape de réflexion sur le rôle de l'inférence dans la pile d'IA décentralisée. Étant donné que les réseaux peuvent produire des modèles, l'inférence décentralisée devient *beaucoup* plus intéressante. Pourquoi ? Eh bien, auparavant, l'inférence décentralisée signifiait être capable de prendre un d-réseau et de fournir des sorties de modèle. Les modèles étaient des modèles traditionnels, open ou closed source. Et le but du jeu était de réduire les coûts afin que le client préfère une d-inférence à une inférence classique. Mais cela pose problème dans l'inférence décentralisée, car le d- rend en fait l'inférence plus coûteuse (avec certaines solutions spéculatives, la plus excitante étant le subside). Cependant, si nous savons que les réseaux peuvent produire et posséder collectivement des modèles, alors l'inférence devient le point où les revenus sont générés. Les clients *doivent* se rendre sur le réseau pour obtenir des sorties de modèle, et de nombreux schémas de tokenisation dépendront de cette facilité. Par exemple, si vous souhaitez tokeniser des modèles de deAI, vous devrez rediriger le flux de revenus d'inférence vers les détenteurs de tokens. L'inférence décentralisée est un domaine intéressant à explorer, mais elle devient un domaine *critique* lorsque nous nous asseyons pour construire les modèles de tokens de l'espace de deAI !