Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

tory.io 🦾
Co-fondator @ionet | Eliberarea AI Genie din sticlă 🧞 ♂️
Calculul scalează predicția, nu înțelegerea.
LLM-urile comprimă modele, nu construiesc modele cauzale și nu urmăresc obiective.
Piesele lipsă: AI simbolic, feedback împământat, memorie cu orizont lung, utilizarea instrumentelor.
Nu ajungem la AGI doar scalând spre el.

Far El8 aug., 01:45
It’s clear that you can’t squeeze AGI out of LLMs even if you throw billions of dollars worth of compute at it, something fundamental is missing
14,1K
Masterclass despre cum să construiești

mitsuri21 aug., 00:39
Unii dintre primii angajați Apple vorbesc despre Steve Jobs.
14,03K
Specialiștii câștigă. Transferurile clare înving presupunerile.
Agenții AI nu sunt diferiți.
Diviziunea muncii + orchestrarea strânsă > o fereastră de context umflată.
O fereastră mai lungă sporește memoria, nu coordonarea. Aveți nevoie în continuare de roluri, rutare și verificări.

Aaron Levie7 aug., 06:43
Diviziunea muncii cu agenți AI va fi esențială pentru maximizarea impactului agenților.
Am avut mult timp o diviziune a muncii în organizații, deoarece a avea experți individuali care își încredințează sarcini unul altuia este mai eficient decât o grămadă de generaliști care încearcă să facă lucrurile într-un mod diferit de fiecare dată. Agenții AI prezintă aceeași dinamică.
Pentru ca AI Agents să funcționeze, aveți nevoie de cantitatea potrivită de context despre sarcina pe care încearcă să o finalizeze. Aceasta înseamnă o înțelegere profundă a domeniului, un set de cunoștințe pe care să lucrezi, instrucțiuni clare și un set de instrumente de utilizat. Prea puțin context și agentul va eșua. Cu toate acestea, în egală măsură, pe măsură ce mai multe dintre aceste informații intră în fereastra contextului, știm că modelele pot deveni suboptime.
Pentru un proces de afaceri complex, dacă puneți toată documentația, descrierea fluxului de lucru și instrucțiunile în fereastra contextuală, știm că acest lucru poate duce în cele din urmă la putregaiul contextului, ceea ce duce la rezultate mai proaste.
Arhitectura logică în viitor este de a împărți agenții în unități atomice care se mapează la tipurile potrivite de sarcini și apoi acești agenți să lucreze împreună pentru a-și finaliza munca.
Vedem deja acest lucru în mod eficient în agenții de codare. Există din ce în ce mai multe exemple care apar cu oameni care configurează subagenți care dețin părți specifice ale unei baze de cod sau zone de servicii. Fiecare agent este responsabil pentru o parte a codului și există o documentație prietenoasă cu agentul pentru cod. Apoi, pe măsură ce este nevoie de muncă în acea zonă relevantă a bazei de cod, un agent orchestrator se coordonează cu acești subagenți.
Am putea vedea acest model aplicându-se probabil la aproape orice domeniu de cunoaștere în viitor. Acest lucru va permite agenților AI să fie utilizați pentru mult mai mult decât cazuri de utilizare specifice sarcinilor și să se extindă la alimentarea fluxurilor de lucru întregi din companie.
Chiar dacă modelele AI se îmbunătățesc pentru a putea gestiona ferestre de context mai mari și nivelurile de inteligență cresc, nu este evident că această arhitectură dispare vreodată. Este probabil ca rolul fiecărui agent să se extindă pe măsură ce capacitățile se îmbunătățesc, dar liniile clare de separare între subagenți pot duce întotdeauna la rezultate mai bune.
21,16K
Credință care primește respingere:
DeAI sau bust.
1) Deficitul de calcul este permanent, nevoile ML cresc de ~ 100 de ori la fiecare 3 ani cu noi sarcini de lucru stivuite.
2) Viitorul este de trilioane de agenți. Nicio organizație nu poate gestiona asta. Numai scale de coordonare fără permisiune
30,16K
Uitați de noile parametri. Agenții trăiesc sau mor pe stratul de servire.
Latență, costuri și libertate de expediere - nimic altceva nu contează.
IO Cloud = lichiditate globală a GPU-ului.
IO Intelligence = modele deschise care rulează efectiv.
Infra câștigă ciclul. IO construiește șinele.

io.net8 aug., 02:02
GPT-5 este live.
Modele mai mari. Mai mult calcul. Mai multă presiune asupra inferenței.
Nu mai este vorba doar de antrenament.
Este vorba despre stiva completă care deservește agenții în timp real.
oferă GPU-uri globale, descentralizate.
io.intelligence rulează modele open-source printr-un singur API -> rapid, ieftin și deblocat.
$IO accelerează AI
66,94K
Limită superioară
Clasament
Favorite
La modă pe lanț
La modă pe X
Principalele finanțări recente
Cele mai importante