Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov
Criador do AuditAgent e AgentArena da Nethermind | Ferramentas de IA para Segurança Web3
Acabei de voltar de uma semana intensa em @EFDevcon em Buenos Aires: dois painéis de discussão, uma palestra sobre o futuro dos auditores de contratos inteligentes, um workshop na Agent Arena e julgamento do @ETHGlobal Hackathon. Este ano, o Devconnect realmente pareceu uma Feira Mundial de Ethereum — menos conversas sobre um futuro distante e mais sobre produtos já em produção e movimentando dinheiro real.
Minha principal lição: @ethereum ainda parece o ecossistema mais sério para adoção a longo prazo, especialmente nas finanças descentralizadas. Isso não significa que outros ecossistemas não tenham chance — mas a maturidade dos padrões, a profundidade da infraestrutura e a concentração de desenvolvedores ainda estão muito do lado do Ethereum.
Dito isso, a história de escalar até os L2s está longe de ser resolvida. Na minha visão, houve um erro estratégico: o ecossistema recebeu um enorme impulso tecnológico, mas ao custo de uma experiência de usuário severamente fragmentada. Os usuários não internalizam totalmente que L2s são Ethereum — mas sentem claramente os riscos de pontes e fragmentação da liquidez. Ainda espero que isso seja corrigido, simplesmente porque equipes fortes demais estão trabalhando nisso para deixar as coisas "como estão".
O segundo grande vetor que realmente se cristalizou para mim é a coordenação de agentes onchain, especialmente agentes financeiros: padrões como ERC-8004 e protocolos de pagamento como X402 podem se tornar o "sistema operacional" base de como agentes transferem liquidez e interagem entre si nos próximos anos. Pretendo focar de perto nessa interseção entre agentes, pagamentos e DeFi.
E, claro, meu tema principal — auditoria de contratos inteligentes por IA. O que não faz muito tempo antes parecia "um brinquedo que ocasionalmente encontra algo" agora está se tornando ferramentas que detectam problemas sérios de forma confiável e já são usadas tanto por auditores quanto por desenvolvedores — às vezes revelando coisas que os humanos deixam passar. Foi ótimo reconectar com pessoas que criam produtos que realmente mudam a forma como usamos DeFi e sentir parte desse processo.




796
A AGI não chegará em 2 anos: @ilyasut acabou de matar o mito favorito do Vale do Silício
Em uma nova entrevista com Dwarkesh Patel, Ilya Sutskever faz uma virada bastante brusca na conversa sobre o futuro da IA: "a era do escalonamento simples acabou; daqui pra frente, precisamos de novas descobertas."
Mas, para mim, a parte mais importante desta entrevista nem é o fim da abordagem "compute first". É a linha do tempo dele para a AGI: de 5 a 20 anos. Em outras palavras, uma das pessoas por trás dos modelos mais poderosos do mundo está seriamente considerando cenários daqui a mais de 10 anos.
Isso contrasta radicalmente com a narrativa "AGI em 1–2 anos" que ouvimos de alguns fundadores e investidores. Depois, 1 a 2 anos, vemos o quão distantes das expectativas estavam da realidade: os modelos se tornaram mais poderosos, mas isso ainda não é uma "inteligência universal" que elimina tudo. Quando alguém do calibre de Sutskever diz "5–20 anos", eu leio como: está chegando, mas não amanhã, e provavelmente nem depois de amanhã.
A partir disso, há uma conclusão prática importante. Ideias como "qualquer startup que você crie — a OpenAI vai se alimentar de qualquer jeito" ou "qualquer profissão que você escolher — a AGI vai destruí-la" soam muito exageradas. O mercado certamente vai mudar, e rápido para os padrões históricos, mas pessoas e empresas terão uma janela para se adaptar. Com uma condição: você se prepara deliberadamente para essas mudanças — experimenta IA no seu trabalho, investe tempo em novas habilidades, aprende a construir sistemas sobre modelos em vez de apenas "ter medo deles".
Ao mesmo tempo, também não devemos ter ilusões. A estrutura do emprego vai mudar, alguns cargos serão desvalorizados e algumas pessoas realmente serão afetadas — principalmente aquelas que escolheram "esperar" e não mudar nada enquanto ainda podiam. Na minha opinião, a próxima década não é um momento de "mudança mágica de AGI", mas um longo e às vezes doloroso processo de remodelação de mercados e competências. E é justamente nesse período que será decidido quem termina em posição vencedora — e quem não está.

280
O monopólio dos hyperscalers sobre modelos de fronteira está quebrando: o RL descentralizado realmente funciona!
Ainda não consigo entender totalmente o fato de que alguém realmente conseguiu realizar um treinamento descentralizado de um grande modelo de linguagem.
Por anos, para mim, treinamento distribuído foi igual a dor: assim que as GPUs começam a ficar fisicamente mais distantes — mesmo dentro da mesma máquina — você enfrenta sobrecarga, problemas de sincronização, gargalos de rede, e tudo desacelera até quase nada. A indústria resolveu isso com data centers caros e redes ultradensas, que imediatamente elevaram o padrão tão alto que apenas algumas empresas no mundo podiam atuar no nível do modelo de fronteira.
E nesse contexto, @PrimeIntellect lança o INTELLECT-3 — um modelo MoE 106B treinado de forma descentralizada, com RL em grande escala por cima. Nos benchmarks, supera o GLM-4.5 e o DeepSeek-R1-0528, e em matemática entrega SOTA para seu tamanho (MATH-500, AIME24). Então, isso não é um "experimento interessante de descentralização", é um concorrente de nível fronteiriço em toda a relação. Sinceramente, eu esperava algo como "sim, ele roda, mas a qualidade é muito pior." Em vez disso — este é um resultado muito sério.
A peça chave é o framework assíncrono de RL deles, prime-rl, que pode treinar um modelo em um pool de GPUs descentralizado: desde GPUs de consumo até data centers independentes operados por diferentes operadores. RL assíncrono fora da política nessa escala é um pesadelo de engenharia, e o Prime basicamente é o único que levou isso até um produto funcional até agora. Além disso, eles disponibilizaram não só o prime-rl, mas também o próprio INTELLECT-3 (MIT/Apache 2.0) e o conjunto de dados SYNTHETIC-2, coletados via inferência descentralizada (1250+ GPUs em três dias). Isso não é apenas "mais um modelo em HF", é uma infraestrutura que quebra a velha narrativa de que modelos sérios só são possíveis dentro de laboratórios fechados de hyperscaler.
Se um número significativo de pesquisadores e startups no mundo todo tiver acesso a ferramentas e infraestrutura como essa, isso pode acelerar radicalmente o progresso nos modelos de raciocínio e, em última análise, nos aproximar da AGI mais rápido do que muitos esperavam. Para mim, isso parece um daqueles raros casos em que uma barreira que parecia estruturalmente intransponível (rede, coordenação, custo) começa a rachar de repente. Vejo isso como uma conquista absurdamente importante — no nível de uma "mudança de trajetória" para o ecossistema, não apenas mais um lançamento.

462
Melhores
Classificação
Favoritos

