Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Nu pot să cred că așa ceva există... cineva a scris în sfârșit manualul secret pe care orice startup de agenți AI l-a falsificat.
O echipă de cercetare tocmai a publicat "Un ghid practic pentru proiectarea, dezvoltarea și implementarea fluxurilor de lucru agențice AI de calitate de producție" și practic este manualul intern pe care oamenii îl folosesc OpenAI și Anthropic.
Nu e hype.
Nu diagrame cu săgeți drăguțe.
Un adevărat plan ingineresc pentru agenți care nu cedează imediat ce părăsești sandbox-ul demo.
Iată ce îl face nebunesc 👇
1 / Încep prin a expune de ce majoritatea agenților se prăbușesc
Nu e niciodată modelul.
Este sistemul din jurul ei:
• rutare nedeterministă a uneltelor
• defecțiuni MCP silențioase
• agenți care improvizează ordinul de execuție
• fluxuri de lucru care produc rezultate diferite la fiecare execuție
Ele arată urme brute de defecțiune — jurnale reale ale agenților care au dat greș, au făcut bucle sau au halucinat unelte.
Se citește ca o autopsie a fiecărui "angajat autonom AI".
2 / Reconstruiesc întreaga stivă în jurul determinismului
Fiecare apel la unealtă devine o funcție tipată.
Fiecare cale de execuție este rejucabilă.
Fiecare pas este determinist.
Dacă sistemul nu poate produce aceeași ieșire de două ori, nu este de calitate de producție.
Această regulă singură elimină jumătate din haosul pe care oamenii îl confundă cu "emergență".
3 / Ei aplică agenți cu responsabilitate unică
Niciun mega-agent cu 12 personalități.
În loc de:
•Planificator
• agent de raționament
• executor de unelte
• validator
•sintetizator
Fiecare cu limite stricte.
Fără unelte halucinate.
Fără raționamente mixte.
Fără freelancing.
Aceasta este inginerie backend, nu joc de rol.
4 / Externalizează fiecare prompt ca la configurația reală
Prompturile nu mai sunt șiruri ascunse — ele sunt:
• controlat de versiune
• auditabil
• diferabilă
• reîncărcabil
Acest lucru creează un comportament stabil și previne regresiile invizibile.
5 / Ei conduc un consorțiu model cu un arbitru
GPT + Claude + Gemini nu sunt interschimbabile.
Sunt colaboratori.
Fiecare produce un draft.
Un agent de raționament le combină, rezolvă contradicțiile și produce un rezultat unificat.
Dezbatere structurată, nu ruletă de modele.
6 / Ele decuplează motorul de workflow de stratul MCP
Ele separă:
•Orchestraţie
• acces la unelte
•Încercări
• controale medicale
•Scalare
• observabilitate
Rezultatul: un sistem de agenți care se comportă ca microservicii, nu ca o macro de chat lipită de bandă adezivă.
7 / Apoi dovedesc totul cu o adevărată producție
O analiză completă de știri ➝ ➝ script ➝ raționament ➝ audio ➝ video ➝ GitHub PR.
Diagrame complete.
Urme complete.
Eșecuri reale.
Soluții reale.
Este cel mai apropiat lucru pe care îl are acest domeniu de o arhitectură canonică pentru agenții care supraviețuiesc încărcării reale.
Dacă stack-ul tău de agenți nu are:
• fluxuri de lucru deterministe
• responsabilități izolate
• prompturi externalizate
• arbitraj multi-model
• infrastructură propriu-zisă
• observabilitate completă
… Nu construiești agenți.
Construiești demo-uri.
Acest ghid este primul plan real pentru sistemele AI de producție și ridică ștacheta pentru toată lumea.

17,66K
La naiba... Această lucrare ar putea fi cea mai importantă schimbare în modul în care folosim LLM-urile în acest an.
"Modele cauzale mari din modele lingvistice mari."
Arată că poți dezvolta modele cauzale complete direct dintr-un LLM, nu aproximări, nu grafice cauzale reale, contrafactuale, intervenții și structuri controlate prin constrângeri.
Și modul în care o fac este nebunesc:
În loc să antreneze un model cauzal specializat, ei interoghează LLM-ul ca un om de știință:
→ extragerea unui graf cauzal candidat din text
→ cere modelului să verifice dependențele condiționate
→ detectează contradicțiile
→ revizuim structura
→ testează contrafactualele și predicțiile intervenționale
→ itera până când modelul cauzal se stabilizează
Rezultatul este ceva ce nu am mai avut până acum:
un sistem cauzal construit în interiorul LLM-ului folosind propria sa cunoaștere latentă a lumii.
Prin repere – domenii sintetice, reale, complicate, aceste LCM-uri depășesc metodele clasice de descoperire cauzală pentru că se bazează pe cunoștințele anterioare masive ale LLM-ului, nu doar din corelațiile locale.
Și raționamentul contrafactual?
Șocant de puternic.
Modelul poate răspunde la întrebări "ce-ar fi dacă" la care algoritmii standard eșuează complet, pur și simplu pentru că deja "știe" lucruri despre lume pe care acei algoritmi nu le pot deduce doar din date.
Această lucrare sugerează un viitor în care LLM-urile nu vor mai fi doar mașini de modele.
Ele devin sisteme de motoare cauzale care formează, testează și rafinează explicațiile structurale ale realității.
Dacă acest lucru se scalează, fiecare domeniu care se bazează pe economia inferenței cauzale, medicină, politici, știință este pe cale să fie rescris.
LLM-urile nu îți vor spune pur și simplu ce se întâmplă.
Ei îți vor spune de ce.

41,99K
Nimeni nu este pregătit pentru ceea ce dezvăluie această lucrare de la Stanford despre inteligența artificială multi-agent.
"Latent Collaboration in Multi-Agent Systems" arată că agenții nu au nevoie de mesaje, protocoale sau instrucțiuni explicite de lucru în echipă. Încep să coordoneze în interiorul propriilor reprezentări ascunse un strat complet de colaborare care există doar în spațiul latent.
Și comportamentele sunt nebunești:
• Agenții predau sarcinile în tăcere în funcție de cine este mai bun
• Roluri apar de nicăieri: lider, executor, susținător
• Politicile codifică semnale care nu apar niciodată în acțiuni
• Echipele se adaptează la noi medii fără a se recalifica
• Colaborarea rămâne stabilă chiar și atunci când comunicarea este imposibilă
Cel mai sălbatic detaliu:
Chiar și când elimini toate canalele de comunicare, agenții tot cooperează. "Munca în echipă" nu există în mesaje. Trăiește în rețea.
Asta răstoarnă întregul manual multi-agent.
Am construit mecanisme de coordonare deasupra...
în timp ce adevărata coordonare are loc dedesubt.
Se desfășoară o nouă eră a informațiilor emergente de echipă — și se întâmplă în locurile pe care nici măcar nu le căutam.
Proiect: github. com/Gen-Verse/LatentMAS

138,39K
Limită superioară
Clasament
Favorite
