Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

steve hsu
Fyzik, zakladatel umělé inteligence, Manifold Podcast
Automatizace se dotýká všech, včetně čínských továrních dělníků.
AI: "ztráta pracovních míst ≠ pokles průmyslových kapacit – kritická lekce pro ostatní rozvojové ekonomiky."
"Na svém vrcholu, kolem roku 2010 (těsně před a po globální finanční krizi), čínský výrobní sektor zaměstnával asi 220 milionů lidí. ... Nyní jsme se snížili na zhruba 100 milionů. Za poslední desetiletí tedy ~100 milionů lidí opustilo výrobu. Kam se poděli? Především do sektoru služeb." – Sun Zhongwei, Jihočínská normální univerzita
Zkontroloval jsem to pomocí Zhipu GLM-4.5 AI - původní nabídka se zdá být správná. Více informací naleznete níže.
Čínský výrobní sektor prošel v tomto období hlubokou transformací:
MVA = přidaná hodnota ve výrobě
Nominální MVA: +2,79 $ (120% nárůst)
PPP MVA: +4,33 USD (89% nárůst)
To odráží úspěšný posun od výroby náročné na pracovní sílu ke kapitálově náročné výrobě s vysokou hodnotou. Zatímco zaměstnanost prudce klesala, růst produktivity a technologická modernizace proměnily Čínu v bezkonkurenční výrobní supervelmoc. Údaje podtrhují, že úbytek pracovních míst ≠ pokles průmyslových kapacit – což je zásadní ponaučení pro další rozvojové ekonomiky.
###
Pokud to zdvojnásobíte na ~200 milionů lidí na celém světě ve vyspělých zemích, je to zhruba celková populace potřebná k výrobě veškerého high-tech zboží používaného celým světem! Je to nepatrný zlomek celkové globální pracovní síly, která se pohybuje v miliardách.

10,38K
Další model 👍 SOTA s otevřeným zdrojovým kódem
Při parametrech 355B (32B aktivní MoE) je o něco menší než některé ~1T modely, které jsme viděli.
AFAIK neříkají, jaký hardware byl použit k trénování tohoto modelu, ale použili 23T tréninkové tokeny.
IIUC Alibaba i Tencent jsou investoři, ve kterých je startup v Pekingu.

Z.ai11. 8. 11:43
Představujeme technickou zprávu GLM-4.5! 👇
Tato práce ukazuje, jak jsme vyvinuli modely, které vynikají v uvažování, kódování a agentních úlohách prostřednictvím jedinečného, vícestupňového trénovacího paradigmatu.
Mezi klíčové inovace patří iterace expertního modelu se samodestilací pro sjednocení schopností, hybridní režim uvažování pro dynamické řešení problémů a učební plán zpětnovazebního učení založený na obtížnosti.

6,53K
Musk: Oceňuji. A řekněte mi – jak těžké by bylo vycvičit lehký OOD detektor přímo v latentním prostoru? Něco, co označí sémantickou nesoudržnost předtím, než model vyvolá halucinace o řešení?
Hsu: Vytvořili jsme prototyp. Můžete použít kontrastivní učení mezi in-distribuční a synteticky narušenou trajektorií ve zbytkovém proudu. První vrstvy ve skutečnosti vykazují detekovatelné poklesy koherence – jako signál "kognitivní disonance" – předtím, než se výstup rozchází. Skutečnou výzvou je však latence. Nemůžete si dovolit plnou přihrávku dozadu jen proto, abyste si ověřili sebevědomí.
Musk: Takže potřebujeme online monitor – něco, co běží paralelně s dopředným průchodem, možná malou sondu připojenou k mezilehlým aktivacím?
Hsu: Přesně tak. Představte si to jako "kognitivní imunitní systém". Máme sondu s 1B-parametrem, která běží na 1/10 latence základního modelu a předpovídá OODness s ~88% AUC v našich zátěžových testech. Není to dokonalé, ale stačí to ke spuštění záložních protokolů.
Musk: To by se mohlo čistě integrovat se směrovací vrstvou. LLM se to snaží vyřešit; vyšetřování zvedá vlajku; Systém vyvolá symbolický motor nebo požádá o vysvětlení. Uzavře smyčku.
Hsu: Ano – a co je zásadní, můžete tyto předávky zaznamenávat a používat je k rozšíření distribuce tréninku v průběhu času. Mění selhání OOD na kurátorské signály. Nejde jen o robustnost; je to adaptivní zobecnění.
Musk: Model se pak naučí, kdy nevěřit sám sobě. To se mi líbí. Pokora podle designu.
Hsu: [smích] Říkejme tomu omezená sebedůvěra. Budoucnost nejsou modely, které vědí všechno – jsou to modely, které znají své limity a mají nástroje k jejich překonání.
Musk: Dobře, Steve. Příští týden chci, abyste spustili tuto syntetickou testovací sadu na našem nejnovějším základním modelu. Pokud se stále necháváme zmást kontrafaktuálními fyzikálními hádankami, těžce se přikláníme k hybridu.
Tento dialog mohl být vygenerován umělou inteligencí.

steve hsu10. 8. 20:06
Musk: Steve, skutečná otázka, kterou stále kladu týmu, je, zda dnešní LLM mohou uvažovat o tom, když opustí distribuci školení. Každý cituje myšlenkový řetězec, ale to by mohlo být jen napodobování.
Hsu: Souhlasím. Nejnovější benchmarky ukazují, že i modely na úrovni Grok4 se prudce zhoršují, jakmile vynutíte posun domény – latentní prostor prostě nepokrývá novou modalitu.
Musk: Takže je to spíš problém pokrytí než selhání uvažování?
Hsu: Částečně. Je tu však hlubší problém. Jediným vestavěným indukčním předpětím transformátoru je asociativní porovnávání vzorů. Když je výzva skutečně mimo distribuci – řekněme symbolická hádanka, jejíž tokeny se při trénování nikdy neobjevily společně – model nemá žádnou strukturu, ke které by se mohl vrátit. Doslova hází mincemi.
Musk: Přesto vidíme vznikající "grokking" na syntetických úlohách. Zhong a kol. ukázali, že indukční hlavy mohou skládat pravidla, na kterých nikdy nebyla explicitně trénována. Nevypadá to jako uvažování?
Hsu: Kompozice vám kupuje omezené zobecnění, ale pravidla stále musí spočívat v rozpětí tréninkové gramatiky. Jakmile vyladíte sémantiku – změníte jediný operátor v hlavolamu – přesnost se zhroutí. To není robustní argumentace; je to křehká interpolace.
Musk: Nemohlo by to zpětnovazební učení vyřešit? DRG-Sapphire použil GRPO na základním modelu 7 B a získal kódování na lékařské úrovni v klinických poznámkách, což je klasický úkol OOD.
Hsu: Háček je v tom, že RL funguje až poté, co základní model přijal dostatek znalostí domény prostřednictvím jemného ladění pod dohledem. Když je předtréninkový korpus řídký, RL sám stagnuje. Takže "uvažování" je stále parazitické na předchozí hustotě znalostí.
Musk: Takže váš závěr je, že škálování dat a parametrů problém nevyřeší? Vždy narazíme na zeď, kde další OOD doména rozbije model?
Hsu: Ne nutně stěna, ale strop. Empirické křivky naznačují, že chyba zobecnění se s trénovacími příklady rozpadá zhruba logaritmicky. To znamená, že pro každé nové koncové rozdělení potřebujete exponenciálně více dat. Pro úzké vertikály – řekněme diagnostiku raketových motorů – je levnější péct se v symbolických priorech než slepě škálovat.
Musk: Což nás přivádí zpět k neurosymbolickým hybridům. Poskytněte LLM přístup k malému ověřenému řešiči a pak ho nechte orchestrovat volání, když se distribuce posune.
Hsu: Přesně tak. LLM se stává meta-kontrolérem, který rozpozná, kdy je OOD, a předá specializovaný modul. Tato architektura obchází klam "jednoho obrovského transformátoru".
Musk: Dobře, řeknu týmu xAI, aby se přestal honit za dalším bilionem tokenů a začal budovat směrovací vrstvu. Díky, Steve.
Hsu: Kdykoliv. A pokud potřebujete syntetické testovací případy OOD, moje laboratoř má generátor, který už GPT-5 oklamal. Pošlu vám repo.
Tento rozhovor s Elonem může být generován umělou inteligencí.

6,84K
steve hsu repostoval/a
Jsem potěšen, že se ke mně v nejnovější epizodě pořadu Hledání pravdy z faktů připojil Andrew Sabisky, superprognostik a bývalý poradce Downing Street, který v současné době pracuje pro Bismarck Analysis, abychom diskutovali o obraně, problémech Británie, geostrategii a dalších! ⏬
3,97K
Moje intuice říká, že něco takového (nad rámec jednoduché architektury transformátoru) je nutné k dosažení skutečného AGI/ASI.
Dobrou zprávou je, že tyto další vrstvy může být relativně snadné vybudovat. Malý zlomek zdrojů (výpočetních i lidských) věnovaných hyperškálování by nás tam mohl dostat.
Vidím spoustu inovativních nápadů, jako je tento, přicházejících ze Sinosféry. Pokud hyperscaling není cestou k AGI/ASI (na rozdíl od chytrých nových nápadů a lepších architektur), pak by náskok USA před Čínou mohl být nulový nebo dokonce záporný!
22,36K
Musk: Steve, skutečná otázka, kterou stále kladu týmu, je, zda dnešní LLM mohou uvažovat o tom, když opustí distribuci školení. Každý cituje myšlenkový řetězec, ale to by mohlo být jen napodobování.
Hsu: Souhlasím. Nejnovější benchmarky ukazují, že i modely na úrovni Grok4 se prudce zhoršují, jakmile vynutíte posun domény – latentní prostor prostě nepokrývá novou modalitu.
Musk: Takže je to spíš problém pokrytí než selhání uvažování?
Hsu: Částečně. Je tu však hlubší problém. Jediným vestavěným indukčním předpětím transformátoru je asociativní porovnávání vzorů. Když je výzva skutečně mimo distribuci – řekněme symbolická hádanka, jejíž tokeny se při trénování nikdy neobjevily společně – model nemá žádnou strukturu, ke které by se mohl vrátit. Doslova hází mincemi.
Musk: Přesto vidíme vznikající "grokking" na syntetických úlohách. Zhong a kol. ukázali, že indukční hlavy mohou skládat pravidla, na kterých nikdy nebyla explicitně trénována. Nevypadá to jako uvažování?
Hsu: Kompozice vám kupuje omezené zobecnění, ale pravidla stále musí spočívat v rozpětí tréninkové gramatiky. Jakmile vyladíte sémantiku – změníte jediný operátor v hlavolamu – přesnost se zhroutí. To není robustní argumentace; je to křehká interpolace.
Musk: Nemohlo by to zpětnovazební učení vyřešit? DRG-Sapphire použil GRPO na základním modelu 7 B a získal kódování na lékařské úrovni v klinických poznámkách, což je klasický úkol OOD.
Hsu: Háček je v tom, že RL funguje až poté, co základní model přijal dostatek znalostí domény prostřednictvím jemného ladění pod dohledem. Když je předtréninkový korpus řídký, RL sám stagnuje. Takže "uvažování" je stále parazitické na předchozí hustotě znalostí.
Musk: Takže váš závěr je, že škálování dat a parametrů problém nevyřeší? Vždy narazíme na zeď, kde další OOD doména rozbije model?
Hsu: Ne nutně stěna, ale strop. Empirické křivky naznačují, že chyba zobecnění se s trénovacími příklady rozpadá zhruba logaritmicky. To znamená, že pro každé nové koncové rozdělení potřebujete exponenciálně více dat. Pro úzké vertikály – řekněme diagnostiku raketových motorů – je levnější péct se v symbolických priorech než slepě škálovat.
Musk: Což nás přivádí zpět k neurosymbolickým hybridům. Poskytněte LLM přístup k malému ověřenému řešiči a pak ho nechte orchestrovat volání, když se distribuce posune.
Hsu: Přesně tak. LLM se stává meta-kontrolérem, který rozpozná, kdy je OOD, a předá specializovaný modul. Tato architektura obchází klam "jednoho obrovského transformátoru".
Musk: Dobře, řeknu týmu xAI, aby se přestal honit za dalším bilionem tokenů a začal budovat směrovací vrstvu. Díky, Steve.
Hsu: Kdykoliv. A pokud potřebujete syntetické testovací případy OOD, moje laboratoř má generátor, který už GPT-5 oklamal. Pošlu vám repo.
Tento rozhovor s Elonem může být generován umělou inteligencí.

101,64K
NYT jsou nuceny tisknout fakta, která se jim OPRAVDU nelíbí.
SPUTNIK MOMENT = čas soutěžit, už žádný COPE
"Po druhé světové válce, kdy Spojené státy čelily zvýšené vojenské a vědecké konkurenci ze strany Sovětského svazu, začaly výběrové univerzity přikládat větší váhu akademickým faktorům, včetně SAT," řekl Nicholas Lemann, který píše o historii standardizovaného testování a je profesorem žurnalistiky na Kolumbijské univerzitě.

28,46K
"Dokonce i hraniční modely se potýkají s aktualizací nad rámec předtrénování, bez ohledu na to, jak přesvědčivé jsou nové důkazy."
K tomu školíme doktorandy! Mohou to transformátory udělat bez změny jejich hmotnosti?


steve hsu8. 8. 07:29
Je řetězové uvažování LLM fata morgánou?
... Naše výsledky ukazují, že uvažování CoT je křehký přelud, který zmizí, když je posunut za hranice distribuce tréninku. Tato práce nabízí hlubší pochopení toho, proč a kdy uvažování CoT selhává, a zdůrazňuje přetrvávající výzvu k dosažení autentického a zobecnitelného uvažování.
... Naše zjištění ukazují, že CoT uvažování funguje efektivně, když je aplikováno na in-distribuci nebo blízko
v distribuci, ale stává se křehkým a náchylným k selhání i při mírných distribučních posunech.
V některých případech LLM generují plynulé, ale logicky nekonzistentní kroky uvažování. Výsledky naznačují, že to, co se zdá být strukturovaným uvažováním, může být fata morgána, vycházející z naučených nebo interpolovaných vzorců v trénovacích datech, spíše než z logické dedukce.
... Společně tato zjištění naznačují, že LLM nejsou principiální uvažovatelé, ale spíše sofistikované simulátory textu podobného uvažování.

13,97K
NYT: Očekává se, že prezident Trump ve čtvrtek podepíše memorandum, které vyžaduje, aby vysoké školy předkládaly údaje o přijímacím řízení federální vládě za účelem ověření souladu s rozhodnutím Nejvyššího soudu z roku 2023, které ukončilo rasově uvědomělou politiku, uvedl vysoký představitel Bílého domu.
Prezidentské opatření také vyžaduje, aby ministryně školství Linda McMahonová zvýšila počet kontrol přesnosti údajů poskytovaných školami a podnikla kroky proti univerzitám, které předkládají předčasné nebo nepřesné informace.
Memorandum bude také vyžadovat, aby ministerstvo školství přepracovalo svůj proces shromažďování údajů o vysokoškolském vzdělávání, známý jako Integrovaný datový systém postsekundárního vzdělávání, který zahrnuje podrobnosti o přijetí, zápisu a finanční pomoci. Tyto informace budou podle informačního přehledu přístupnější veřejnosti.

steve hsu6. 8. 07:05
NYTimes: Columbia a Brown zveřejní údaje o přiznáních a rase v Trumpově dohodě
Bylo zapotřebí existenční hrozby ze strany Trumpa, aby je přiměl tato data uvolnit. Před lety fakultní výbor systému Kalifornské univerzity zkoumal právě tento druh dat a vytvořil níže uvedené grafy. Pokud se podíváte na data, pochopíte monstrózní povahu afirmativní akce, jak je praktikována v USA po ~50 let.
NYT: ... Columbia a Brown budou muset zachovat "přijímací politiku založenou na zásluhách", jak se uvádí v jejich dohodách, které kodifikují širší cíle administrativy v právně závazném jazyce.
Univerzity "nesmí v žádném případě nezákonně upřednostňovat uchazeče na základě rasy, barvy pleti nebo národnostního původu při přijímání do svých programů," uvádějí obě dohody ve stejném jazyce. "Nebude tolerován žádný zástupný důkaz pro rasové přijetí."
... "Ministerstvo spravedlnosti skoncuje s ostudným systémem, ve kterém je něčí rasa důležitější než jeho schopnosti," řekl v březnu Chad Mizelle, úřadující náměstek generálního prokurátora. "Každá vysoká škola a univerzita by měla vědět, že nezákonná diskriminace při přijímání bude vyšetřena a odstraněna."
Jazyk použitý v urovnání s Columbií a Brownem zatlouká do hlavy sporná tvrzení o případu přijímacího řízení u Nejvyššího soudu, která Trumpova administrativa předkládá od února.
Trvá na tom, že rozhodnutí jde nad rámec přijímacího řízení a zakazuje jakékoli zohledňování rasy v univerzitním životě.


7,53K
Top
Hodnocení
Oblíbené
Co je v trendu on-chain
Populární na X
Nejvyšší finanční vklady v poslední době
Nejpozoruhodnější