Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> Project Suncatcher verkent hoe we op een dag schaalbare ML-computersystemen in de ruimte kunnen bouwen, waarbij we meer van de kracht van de zon benutten.
Het lijkt erop dat interplanetaire diloco toch geen grap was 🚀

Sundar Pichai5 nov, 01:01
Onze TPU's gaan de ruimte in!
Geïnspireerd door onze geschiedenis van moonshots, van quantumcomputing tot autonoom rijden, verkent Project Suncatcher hoe we op een dag schaalbare ML-computersystemen in de ruimte kunnen bouwen, waarbij we meer van de energie van de zon benutten (die meer energie uitstraalt dan 100 biljoen keer de totale elektriciteitsproductie van de mensheid).
Zoals bij elke moonshot, zal het ons vereisen om veel complexe technische uitdagingen op te lossen. Vroeg onderzoek toont aan dat onze Trillium-generatie TPU's (onze tensorverwerkingsunits, speciaal gebouwd voor AI) zonder schade zijn overleefd toen ze werden getest in een deeltjesversneller om de stralingsniveaus in een lage aardbaan te simuleren. Er blijven echter aanzienlijke uitdagingen bestaan, zoals thermisch beheer en betrouwbaarheid van systemen in de ruimte.
Meer testen en doorbraken zijn nodig terwijl we aftellen naar de lancering van twee prototype-satellieten met @planet begin 2027, onze volgende mijlpaal van velen. We zijn enthousiast om deel uit te maken van alle innovaties die plaatsvinden in (deze) ruimte!

3,32K
> het bouwen van een nieuw fundamenteel model is vele malen moeilijker dan het fijn afstemmen van een open model en het optimaliseren van inferentie.
het is een beetje vreemd hoe onderbelicht het is dat de meeste startups (zelfs de goed gefinancierde) hun eigen fundamentele modellen niet kunnen bouwen en afhankelijk zijn van de open-source modellen van grensverleggende Chinese laboratoria..

Nick30 okt 2025
de reden dat cursor en windsurf modellen hebben uitgebracht die geoptimaliseerd zijn voor snelheid, is omdat het veel haalbaarder is dan het bouwen van een intelligentie-ondersteunend fundamenteel model
1. neem qwen3 en verfijn het via RL op je harnas
2. zet het op Cerebras (of geoptimaliseerde GPU) hardware
3. laat dat medium-slimme, super-snelle model koken
voor bedrijven die coding agents ontwikkelen, als je iets waardevols op de markt wilt brengen, is het bouwen van een nieuw fundamenteel model vele malen moeilijker dan het verfijnen van een open model en het optimaliseren van inferentie.
eerlijk gezegd is het de efficiënte manier om iets uit te brengen dat de pareto-grens benadert en ik vind het leuk dat bedrijven die coding agents ontwikkelen beginnen deel te nemen.
maar vergis je niet, dit is geen verklaring van coding agents bedrijven dat "medium slim maar snel > hoog intelligent maar langzaam"
48,69K
Boven
Positie
Favorieten


