Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> El proyecto Suncatcher está explorando cómo podríamos algún día construir sistemas de computación ML escalables en el espacio, aprovechando más del poder del sol
Parece que el diloco interplanetario no era una broma después de todo 🚀

Sundar Pichai5 nov, 01:01
¡Nuestros TPUs se dirigen al espacio!
Inspirados por nuestra historia de proyectos ambiciosos, desde la computación cuántica hasta la conducción autónoma, el Proyecto Suncatcher está explorando cómo podríamos algún día construir sistemas de computación ML escalables en el espacio, aprovechando más del poder del sol (que emite más energía que 100 billones de veces la producción total de electricidad de la humanidad).
Como cualquier proyecto ambicioso, requerirá que resolvamos muchos desafíos de ingeniería complejos. La investigación inicial muestra que nuestros TPUs de generación Trillium (nuestras unidades de procesamiento tensorial, diseñadas específicamente para AI) sobrevivieron sin daños cuando se probaron en un acelerador de partículas para simular los niveles de radiación de la órbita baja terrestre. Sin embargo, aún quedan desafíos significativos como la gestión térmica y la fiabilidad del sistema en órbita.
Se necesitarán más pruebas y avances a medida que contamos los días para lanzar dos satélites prototipo con @planet a principios de 2027, nuestro próximo hito de muchos. ¡Emocionados de ser parte de toda la innovación que está ocurriendo en (este) espacio!

3,38K
> construir un nuevo modelo fundamental es órdenes de magnitud más difícil que ajustar un modelo abierto y optimizar la inferencia.
es un poco sorprendente lo poco que se discute que la mayoría de las startups (incluso las bien financiadas) no pueden construir sus propios modelos fundamentales y dependen de que los laboratorios chinos de vanguardia hagan open-source los suyos..

Nick30 oct 2025
la razón por la que Cursor y Windsurf lanzaron modelos optimizados para la velocidad es porque es mucho más factible que construir un modelo fundamental que empuje la inteligencia
1. toma Qwen3 y ajústalo a través de RL en tu arnés
2. colócalo en hardware de Cerebras (o GPU optimizada)
3. deja que ese modelo medianamente inteligente y súper rápido se cocine
para las empresas de agentes de codificación, si quieres llevar algo de valor al mercado, construir un nuevo modelo fundamental es órdenes de magnitud más difícil que ajustar un modelo abierto y optimizar la inferencia.
francamente, es la forma eficiente de lanzar algo que se acerque a la frontera de Pareto y me gusta que las empresas de agentes de codificación estén comenzando a participar.
pero no confundas esto con que las empresas de agentes de codificación declaren "medianamente inteligentes pero rápidos > altamente inteligentes pero lentos"
48,7K
Parte superior
Clasificación
Favoritos


