Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> Project Suncatcher tutkii, miten voisimme jonain päivänä rakentaa skaalautuvia ML-laskentajärjestelmiä avaruuteen ja hyödyntää enemmän auringon voimaa
Näyttää siltä, että planeettainvälinen diloco ei ollutkaan 🚀 vitsi

Sundar Pichai5.11. klo 01.01
TPU:mme ovat matkalla avaruuteen!
Project Suncatcher tutkii, miten voisimme jonain päivänä rakentaa skaalautuvia ML-laskentajärjestelmiä avaruuteen ja valjastaa enemmän auringon energiaa (joka tuottaa enemmän tehoa kuin 100 biljoonaa kertaa ihmiskunnan kokonaissähköntuotanto).
Kuten mikä tahansa moonshot, se vaatii meiltä monien monimutkaisten teknisten haasteiden ratkaisemista. Varhaiset tutkimukset osoittavat, että Trillium-sukupolven TPU:t (tensoriprosessointiyksikkömme, jotka on suunniteltu erityisesti tekoälyä varten) selvisivät vahingoittumattomina, kun niitä testattiin hiukkaskiihdyttimessä simuloimaan matalan kiertoradan säteilytasoja. Merkittäviä haasteita on kuitenkin edelleen jäljellä, kuten lämmönhallinta ja järjestelmän luotettavuus kiertoradalla.
Lisää testejä ja läpimurtoja tarvitaan, kun laskemme alaspäin kahden prototyyppisatelliitin laukaisua @planet vuoden 2027 alkuun mennessä, mikä on seuraava virstanpylväämme. Olemme innoissamme siitä, että saamme olla osa kaikkea innovaatiota, joka tapahtuu (tässä) tilassa!

3,39K
> uuden perusmallin rakentaminen on suuruusluokkaa vaikeampaa kuin avoimen mallin hienosäätö ja päättelyn optimointi.
Aika hurjaa, kuinka vähän on keskusteltu siitä, että useimmat startupit (edes hyvin rahoitetut) eivät voi rakentaa omia perustusmallejaan ja luottaa siihen, että kiinalaiset laboratoriot tarjoavat avoimen lähdekoodin omaansa.

Nick30.10.2025
the reason cursor and windsurf released models optimized for speed is because it's way more doable than building an intelligence-pushing foundational model
1. take qwen3 and fine tune it via RL on your harness
2. slap it on Cerebras (or optimized GPU) hardware
3. let that medium-smart, super-fast model cook
for coding agent companies, if you want to bring something of value to market, building a new foundational model is orders of magnitude harder than fine-tuning an open model and optimizing inference.
frankly, it's the efficient way to release something that approaches the pareto frontier and I like that coding agent companies are starting to participate.
but don't mistake this for coding agents companies declaring "medium smart but fast > highly smart but slow"
48,71K
Johtavat
Rankkaus
Suosikit


