Agora que superamos um enorme obstáculo - demonstrando que o treinamento descentralizado de IA é possível - esse conhecimento nos leva à próxima etapa do pensamento sobre o papel da pilha de IA descentralizada de inferência. Dado que as redes podem produzir modelos, a inferência descentralizada torna-se *muito* mais interessante. Por que? Bem, a inferência anteriormente descentralizada significava ser capaz de pegar uma rede d e servir saídas de modelo. Os modelos eram modelos tradicionais de código aberto ou fechado. E o nome do jogo era reduzir os custos para que o cliente preferisse uma inferência d em vez de uma normal. Mas isso é problemático na inferência d, porque a d- na verdade torna a inferência mais cara (com algumas soluções especulativas, sendo a mais empolgante o subsídio). No entanto, se soubermos que as redes podem produzir e coletivamente *possuir* modelos, então a inferência se torna o ponto em que a receita é gerada. Os clientes *devem* ir à rede para obter saídas do modelo, e muitos esquemas de tokenização dependerão dessa facilidade. Por exemplo, se você quiser tokenizar modelos deAI, precisará redirecionar o fluxo de receita de inferência para os detentores de tokens. A inferência descentralizada é uma área legal para se pensar, mas se torna uma área *crítica* quando nos sentamos para construir os modelos de token do espaço deAI!