Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> Le projet Suncatcher explore comment nous pourrions un jour construire des systèmes de calcul ML évolutifs dans l'espace, en exploitant davantage de la puissance du soleil
Il semble que le diloco interplanétaire n'était pas une blague après tout 🚀

Sundar Pichai5 nov., 01:01
Nos TPU se dirigent vers l'espace !
Inspiré par notre histoire de projets audacieux, de l'informatique quantique à la conduite autonome, le Projet Suncatcher explore comment nous pourrions un jour construire des systèmes de calcul ML évolutifs dans l'espace, en exploitant davantage de l'énergie du soleil (qui émet plus d'énergie que 100 trillions de fois la production totale d'électricité de l'humanité).
Comme tout projet audacieux, cela va nécessiter que nous résolvions de nombreux défis d'ingénierie complexes. Les premières recherches montrent que nos TPU de génération Trillium (nos unités de traitement de tenseurs, conçues spécifiquement pour l'IA) ont survécu sans dommage lorsqu'elles ont été testées dans un accélérateur de particules pour simuler les niveaux de radiation en orbite basse. Cependant, des défis significatifs demeurent, comme la gestion thermique et la fiabilité des systèmes en orbite.
D'autres tests et percées seront nécessaires alors que nous comptons à rebours pour le lancement de deux satellites prototypes avec @planet d'ici début 2027, notre prochaine étape parmi tant d'autres. Excité de faire partie de toute l'innovation qui se produit dans (cet) espace !

3,37K
Former des LLM de bout en bout est difficile. Très excité de partager notre nouveau blog (livre ?) qui couvre l'ensemble du pipeline : pré-formation, post-formation et infrastructure. Plus de 200 pages de ce qui a fonctionné, ce qui n'a pas fonctionné, et comment le faire fonctionner de manière fiable

1,15M
> construire un nouveau modèle fondamental est de plusieurs ordres de grandeur plus difficile que d'affiner un modèle ouvert et d'optimiser l'inférence.
C'est un peu fou à quel point il est peu discuté que la plupart des startups (même celles bien financées) ne peuvent pas construire leurs propres modèles fondamentaux et dépendent des laboratoires chinois de pointe qui open-source les leurs..

Nick30 oct. 2025
the reason cursor and windsurf released models optimized for speed is because it's way more doable than building an intelligence-pushing foundational model
1. take qwen3 and fine tune it via RL on your harness
2. slap it on Cerebras (or optimized GPU) hardware
3. let that medium-smart, super-fast model cook
for coding agent companies, if you want to bring something of value to market, building a new foundational model is orders of magnitude harder than fine-tuning an open model and optimizing inference.
frankly, it's the efficient way to release something that approaches the pareto frontier and I like that coding agent companies are starting to participate.
but don't mistake this for coding agents companies declaring "medium smart but fast > highly smart but slow"
48,7K
Meilleurs
Classement
Favoris

