Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> Proyecto Suncatcher está explorando cómo algún día podríamos construir sistemas informáticos de ML escalables en el espacio, aprovechando más de la energía del sol
Parece que el diloco interplanetario no era una broma después de todo 🚀

Sundar Pichai5 nov, 01:01
¡Nuestros TPU se dirigen al espacio!
Inspirado en nuestra historia de moonshots, desde la computación cuántica hasta la conducción autónoma, el Proyecto Suncatcher está explorando cómo algún día podríamos construir sistemas informáticos de ML escalables en el espacio, aprovechando más energía del sol (que emite más energía que 100 billones de veces la producción total de electricidad de la humanidad).
Como cualquier lanzamiento a la luna, requerirá que resolvamos muchos desafíos complejos de ingeniería. Las primeras investigaciones muestran que nuestras TPU de generación Trillium (nuestras unidades de procesamiento de tensores, diseñadas específicamente para IA) sobrevivieron sin daños cuando se probaron en un acelerador de partículas para simular los niveles de radiación de la órbita terrestre baja. Sin embargo, aún quedan desafíos importantes como la gestión térmica y la confiabilidad del sistema en órbita.
Se necesitarán más pruebas y avances a medida que hagamos la cuenta regresiva para lanzar dos prototipos de satélites con @planet a principios de 2027, nuestro próximo hito de muchos. ¡Emocionado de que seamos parte de toda la innovación que está sucediendo en (este) espacio!

2.8K
> construir un nuevo modelo fundamental es órdenes de magnitud más difícil que ajustar un modelo abierto y optimizar la inferencia.
Es un poco salvaje lo poco discutido que es que la mayoría de las startups (incluso las bien financiadas) no pueden construir sus propios modelos de fundación y dependen de los laboratorios chinos de frontera que abren los suyos.

Nick30 oct 2025
La razón por la que Cursor y Windsurf lanzaron modelos optimizados para la velocidad es porque es mucho más factible que construir un modelo fundamental que empuje la inteligencia
1. Tome qwen3 y ajústelo a través de RL en su arnés
2. Colóquelo en el hardware Cerebras (o GPU optimizada)
3. Deje que ese modelo medianamente inteligente y súper rápido se cocine
Para las empresas de agentes de codificación, si desea aportar algo de valor al mercado, construir un nuevo modelo fundamental es órdenes de magnitud más difícil que ajustar un modelo abierto y optimizar la inferencia.
francamente, es la forma eficiente de lanzar algo que se acerca a la frontera de Pareto y me gusta que las empresas de agentes de codificación estén comenzando a participar.
Pero no confunda esto con las empresas de agentes de codificación que declaran "medianamente inteligentes pero rápidas > muy inteligentes pero lentas"
48.66K
Populares
Ranking
Favoritas


