Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Agora que superámos um grande obstáculo -- demonstrar que o treino de IA descentralizada é possível -- este conhecimento leva-nos à próxima fase de reflexão sobre o papel da pilha de IA descentralizada de inferência.
Dado que as redes podem produzir modelos, a inferência descentralizada torna-se *muito* mais interessante.
Por quê? Bem, anteriormente, a inferência descentralizada significava ser capaz de pegar numa d-rede e servir saídas de modelos. Os modelos eram modelos tradicionais de código aberto ou fechado. E o nome do jogo era reduzir custos para que o cliente preferisse uma d-inferência em vez de uma regular. Mas isso é problemático na d-inferência, porque o d- na verdade torna a inferência mais cara (com algumas soluções especulativas, a mais emocionante sendo o subsídio).
No entanto, se sabemos que as redes podem produzir e *possuir* coletivamente modelos, então a inferência torna-se o ponto em que a receita é gerada. Os clientes *devem* ir à rede para obter saídas de modelos, e muitos esquemas de tokenização dependerão desta facilidade.
Por exemplo, se você quiser tokenizar modelos de deAI, precisará redirecionar o fluxo de receita de inferência para os detentores de tokens.
A inferência descentralizada é uma área interessante para se pensar, mas torna-se uma área *crítica* quando nos sentamos para construir os modelos de tokens do espaço de deAI!
Top
Classificação
Favoritos