Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> El proyecto Suncatcher está explorando cómo podríamos algún día construir sistemas de computación ML escalables en el espacio, aprovechando más del poder del sol
Parece que el diloco interplanetario no era una broma después de todo 🚀

Sundar Pichai5 nov, 01:01
¡Nuestros TPUs se dirigen al espacio!
Inspirados por nuestra historia de proyectos ambiciosos, desde la computación cuántica hasta la conducción autónoma, el Proyecto Suncatcher está explorando cómo podríamos algún día construir sistemas de computación ML escalables en el espacio, aprovechando más del poder del sol (que emite más energía que 100 billones de veces la producción total de electricidad de la humanidad).
Como cualquier proyecto ambicioso, requerirá que resolvamos muchos desafíos de ingeniería complejos. La investigación inicial muestra que nuestros TPUs de generación Trillium (nuestras unidades de procesamiento tensorial, diseñadas específicamente para AI) sobrevivieron sin daños cuando se probaron en un acelerador de partículas para simular los niveles de radiación de la órbita baja terrestre. Sin embargo, aún quedan desafíos significativos como la gestión térmica y la fiabilidad del sistema en órbita.
Se necesitarán más pruebas y avances a medida que contamos los días para lanzar dos satélites prototipo con @planet a principios de 2027, nuestro próximo hito de muchos. ¡Emocionados de ser parte de toda la innovación que está ocurriendo en (este) espacio!

3,38K
> construir un nuevo modelo fundamental es órdenes de magnitud más difícil que ajustar un modelo abierto y optimizar la inferencia.
es un poco sorprendente lo poco que se discute que la mayoría de las startups (incluso las bien financiadas) no pueden construir sus propios modelos fundamentales y dependen de que los laboratorios chinos de vanguardia hagan open-source los suyos..

Nick30 oct 2025
the reason cursor and windsurf released models optimized for speed is because it's way more doable than building an intelligence-pushing foundational model
1. take qwen3 and fine tune it via RL on your harness
2. slap it on Cerebras (or optimized GPU) hardware
3. let that medium-smart, super-fast model cook
for coding agent companies, if you want to bring something of value to market, building a new foundational model is orders of magnitude harder than fine-tuning an open model and optimizing inference.
frankly, it's the efficient way to release something that approaches the pareto frontier and I like that coding agent companies are starting to participate.
but don't mistake this for coding agents companies declaring "medium smart but fast > highly smart but slow"
48,7K
Parte superior
Clasificación
Favoritos


