Agora que superámos um grande obstáculo -- demonstrar que o treino de IA descentralizada é possível -- este conhecimento leva-nos à próxima fase de reflexão sobre o papel da pilha de IA descentralizada de inferência. Dado que as redes podem produzir modelos, a inferência descentralizada torna-se *muito* mais interessante. Por quê? Bem, anteriormente, a inferência descentralizada significava ser capaz de pegar numa d-rede e servir saídas de modelos. Os modelos eram modelos tradicionais de código aberto ou fechado. E o nome do jogo era reduzir custos para que o cliente preferisse uma d-inferência em vez de uma regular. Mas isso é problemático na d-inferência, porque o d- na verdade torna a inferência mais cara (com algumas soluções especulativas, a mais emocionante sendo o subsídio). No entanto, se sabemos que as redes podem produzir e *possuir* coletivamente modelos, então a inferência torna-se o ponto em que a receita é gerada. Os clientes *devem* ir à rede para obter saídas de modelos, e muitos esquemas de tokenização dependerão desta facilidade. Por exemplo, se você quiser tokenizar modelos de deAI, precisará redirecionar o fluxo de receita de inferência para os detentores de tokens. A inferência descentralizada é uma área interessante para se pensar, mas torna-se uma área *crítica* quando nos sentamos para construir os modelos de tokens do espaço de deAI!