Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> O Projeto Suncatcher está a explorar como poderíamos um dia construir sistemas de computação ML escaláveis no espaço, aproveitando mais do poder do sol
Parece que o diloco interplanetário não era uma piada afinal 🚀

Sundar Pichai5/11, 01:01
Os nossos TPUs estão a caminho do espaço!
Inspirados pela nossa história de projetos ambiciosos, desde a computação quântica até à condução autónoma, o Projeto Suncatcher está a explorar como poderíamos um dia construir sistemas de computação ML escaláveis no espaço, aproveitando mais do poder do sol (que emite mais energia do que 100 trilhões de vezes a produção total de eletricidade da humanidade).
Como qualquer projeto ambicioso, vai exigir que resolvamos muitos desafios de engenharia complexos. Pesquisas iniciais mostram que os nossos TPUs de geração Trillium (as nossas unidades de processamento de tensores, construídas especificamente para AI) sobreviveram sem danos quando testados em um acelerador de partículas para simular os níveis de radiação da órbita baixa da Terra. No entanto, desafios significativos ainda permanecem, como a gestão térmica e a fiabilidade do sistema em órbita.
Mais testes e avanços serão necessários enquanto contamos os dias para o lançamento de dois satélites protótipos com @planet até ao início de 2027, o nosso próximo marco de muitos. Estou entusiasmado por fazermos parte de toda a inovação que está a acontecer (neste) espaço!

3,36K
> construir um novo modelo fundamental é ordens de magnitude mais difícil do que ajustar um modelo aberto e otimizar a inferência.
é meio louco como é pouco discutido que a maioria das startups (mesmo as bem financiadas) não consegue construir seus próprios modelos fundamentais e depende de laboratórios chineses de ponta que disponibilizam os seus..

Nick30/10/2025
a razão pela qual a Cursor e a Windsurf lançaram modelos otimizados para velocidade é porque é muito mais viável do que construir um modelo fundamental que empurre a inteligência
1. pegue o qwen3 e ajuste-o via RL no seu harness
2. coloque-o em hardware Cerebras (ou GPU otimizada)
3. deixe esse modelo médio-inteligente e super-rápido cozinhar
para empresas de agentes de codificação, se você quiser trazer algo de valor para o mercado, construir um novo modelo fundamental é ordens de magnitude mais difícil do que ajustar um modelo aberto e otimizar a inferência.
francamente, é a maneira eficiente de lançar algo que se aproxima da fronteira de pareto e eu gosto que as empresas de agentes de codificação estão começando a participar.
mas não confunda isso com empresas de agentes de codificação declarando "médio inteligente, mas rápido > altamente inteligente, mas lento"
48,7K
Top
Classificação
Favoritos


