Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> Das Projekt Suncatcher untersucht, wie wir eines Tages skalierbare ML-Computersysteme im Weltraum aufbauen könnten, um mehr von der Energie der Sonne zu nutzen.
Es scheint, dass interplanetarisches Diloco doch kein Scherz war 🚀

Sundar Pichai5. Nov., 01:01
Unsere TPUs sind auf dem Weg ins All!
Inspiriert von unserer Geschichte der Mondmissionen, von Quantencomputing bis hin zu autonomem Fahren, erforscht das Projekt Suncatcher, wie wir eines Tages skalierbare ML-Computersysteme im Weltraum bauen könnten, die mehr von der Energie der Sonne nutzen (die mehr Energie abgibt als 100 Billionen Mal die gesamte Elektrizitätsproduktion der Menschheit).
Wie bei jeder Mondmission wird es erforderlich sein, viele komplexe Ingenieurchallenges zu lösen. Erste Forschungen zeigen, dass unsere TPUs der Trillium-Generation (unsere Tensorverarbeitungseinheiten, die speziell für AI entwickelt wurden) ohne Schäden überstanden haben, als sie in einem Teilchenbeschleuniger getestet wurden, um die Strahlungsniveaus im niedrigen Erdorbit zu simulieren. Es bleiben jedoch erhebliche Herausforderungen wie das thermische Management und die Zuverlässigkeit von Systemen im Orbit.
Weitere Tests und Durchbrüche werden erforderlich sein, während wir den Countdown für den Start von zwei Prototyp-Satelliten mit @planet bis Anfang 2027 zählen, unserem nächsten von vielen Meilensteinen. Ich bin begeistert, Teil all der Innovationen zu sein, die in (diesem) Raum stattfinden!

2,89K
Das Training von LLMs von Anfang bis Ende ist schwierig. Ich freue mich sehr, unseren neuen Blog (Buch?) zu teilen, der die gesamte Pipeline abdeckt: Pre-Training, Post-Training und Infrastruktur. Über 200 Seiten darüber, was funktioniert hat, was nicht und wie man es zuverlässig zum Laufen bringt.

1,15M
> Der Aufbau eines neuen grundlegenden Modells ist um ein Vielfaches schwieriger als das Feintuning eines offenen Modells und die Optimierung der Inferenz.
Es ist irgendwie verrückt, wie wenig darüber gesprochen wird, dass die meisten Startups (sogar die gut finanzierten) ihre eigenen Grundmodelle nicht entwickeln können und auf die Open-Source-Modelle der chinesischen Labore angewiesen sind..

Nick30. Okt. 2025
Der Grund, warum Cursor und Windsurf Modelle veröffentlicht haben, die für Geschwindigkeit optimiert sind, liegt darin, dass es viel machbarer ist, als ein intelligentes, grundlegendes Modell zu entwickeln.
1. Nimm Qwen3 und feineinstelle es über RL auf deinem Harness.
2. Setze es auf Cerebras (oder optimierte GPU) Hardware.
3. Lass dieses mittelintelligente, super schnelle Modell arbeiten.
Für Unternehmen, die Coding-Agenten entwickeln: Wenn ihr etwas Wertvolles auf den Markt bringen wollt, ist der Aufbau eines neuen grundlegenden Modells um ein Vielfaches schwieriger, als ein offenes Modell feinzujustieren und die Inferenz zu optimieren.
Ehrlich gesagt, es ist der effiziente Weg, etwas zu veröffentlichen, das der Pareto-Frontier nahekommt, und ich finde es gut, dass Coding-Agenten-Unternehmen anfangen, daran teilzunehmen.
Aber verwechselt das nicht mit der Aussage der Coding-Agenten-Unternehmen: "mittelintelligent, aber schnell > hochintelligent, aber langsam."
48,66K
Top
Ranking
Favoriten

