Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Jeg kan ikke tro at dette eksisterer... noen har endelig skrevet den hemmelige spilleboken som alle AI-agent-startups har forfalsket.
Et forskningsteam slapp nettopp «A Practical Guide for Designing, Developing, and Deploying Production-Grade Agentic AI Workflows», og det er i bunn og grunn den interne håndboken folk *tror* OpenAI og Anthropic bruker.
Ikke hype.
Ikke diagrammer med søte piler.
En ekte ingeniørplan for agenter som ikke kollapser i det øyeblikket du forlater demo-sandkassen.
Her er hva som gjør det helt sprøtt 👇
1 / De begynner med å avsløre hvorfor de fleste agenter imploderer
Det er aldri modellen.
Det er systemet rundt det:
• ikke-deterministisk verktøyruting
• stille MCP-feil
• agenter som improviserer utførelsesrekkefølgen
• arbeidsflyter som gir ulike resultater for hver kjøring
De viser rå feilspor — faktiske logger over agenter som feilfyrer, looper eller hallusinerer verktøy.
Det leses som en obduksjon av alle demoer med «autonome AI-ansatte».
2 / De bygger hele stacken på nytt rundt determinisme
Hvert verktøykall blir en typet funksjon.
Hver kjørebane kan spilles om igjen.
Hvert steg er deterministisk.
Hvis systemet ikke kan produsere samme produksjon to ganger, er det ikke produksjonskvalitet.
Denne regelen alene dreper halvparten av kaoset folk forveksler med «fremvekst».
3 / De håndhever agenter med enkeltansvar
Ingen megaagent med 12 personligheter.
Isteden:
•Planner
• resonnementsagent
• verktøyutøver
• validator
•Synthesizer
Hver med strenge grenser.
Ingen hallusinerte verktøy.
Ingen blandede resonnementer.
Ingen frilansing.
Dette er backend-ingeniørkunst, ikke rollespill.
4 / De eksternaliserer hver prompt som ekte konfigurasjon
Prompts er ikke lenger skjulte strenger — de er:
• versjonsstyrt
• reviderbar
• diffable
• omladebar
Dette skaper stabil atferd og forhindrer usynlige regresjoner.
5 / De driver et modellkonsortium med en dommer
GPT + Claude + Gemini er ikke utskiftbare.
De er samarbeidspartnere.
Hver lager et utkast.
En resonnement agent slår dem sammen, løser motsetninger og gir et samlet resultat.
Strukturert debatt, ikke modellroulette.
6 / De kobler arbeidsflytmotoren fra MCP-laget
De skiller:
•Orkestrering
• verktøytilgang
•Forsøk
• helsesjekker
•Skalering
• observerbarhet
Resultat: et agentsystem som oppfører seg som mikrotjenester, ikke som en chattemakro med teip.
7 / Så beviser de alt med en ekte produksjonspipeline
A full news ➝ analysis ➝ script ➝ reasoning ➝ audio ➝ video ➝ GitHub PR system.
Fullstendige diagrammer.
Fullstendige spor.
Faktiske feil.
Faktiske løsninger.
Det er det nærmeste dette feltet har til en kanonisk arkitektur for agenter som overlever reell belastning.
Hvis agentstakken din ikke har:
• deterministiske arbeidsflyter
• isolerte ansvarsområder
• eksternaliserte meldinger
• flermodell-voldgift
• riktig infrastruktur
• full observabilitet
… Du er ikke byggeagenter.
Du bygger demoer.
Denne guiden er den første reelle planen for produksjons-AI-systemer, og den hever standarden for alle.

11,97K
Herregud... denne artikkelen kan være det viktigste skiftet i hvordan vi bruker LLM-er i år.
"Store kausale modeller fra store språkmodeller."
Det viser at du kan utvikle fullstendige kausale modeller direkte ut av en LLM, ikke tilnærminger, ikke viber, faktiske årsaksgrafer, kontrafaktiske analyser, intervensjoner og begrensningskontrollerte strukturer.
Og måten de gjør det på er vill:
I stedet for å trene en spesialisert kausal modell, undersøker de LLM-en som en forsker:
→ trekke ut en kandidat årsaksgraf fra tekst
→ be modellen sjekke betingede uavhengigheter
→ oppdager motsetninger
→ revidere strukturen
→ tester kontrafaktiske og intervensjonelle prediksjoner
→ iterere til den kausale modellen stabiliserer seg
Resultatet er noe vi aldri har hatt før:
et kausalt system bygget inne i LLM-en ved hjelp av sin egen latente verdenskunnskap.
På tvers av benchmarks syntetiske, virkelige, rotete domener slår disse LCM-ene klassiske årsaksmessige oppdagelsesmetoder fordi de henter fra LLM-ens enorme forhåndskunnskap i stedet for bare lokale korrelasjoner.
Og den kontrafaktiske begrunnelsen?
Sjokkerende sterk.
Modellen kan svare på «hva om»-spørsmål som standardalgoritmer fullstendig feiler på, rett og slett fordi den allerede «vet» ting om verden som disse algoritmene ikke kan slutte seg til fra data alene.
Denne artikkelen antyder en fremtid der LLM-er ikke bare er mønstermaskiner.
De blir kausale motorsystemer som danner, tester og forbedrer strukturelle forklaringer på virkeligheten.
Hvis dette skalerer, vil alle felt som baserer seg på kausal slutning, økonomi, medisin, politikk og vitenskap bli omskrevet.
LLM-er forteller deg ikke bare hva som skjer.
De vil fortelle deg hvorfor.

41,5K
Ingen er forberedt på det denne Stanford-artikkelen avslører om multi-agent AI.
"Latent samarbeid i fleragentsystemer" viser at agenter ikke trenger meldinger, protokoller eller eksplisitte teamarbeidsinstruksjoner. De begynner å koordinere inne i sine egne skjulte representasjoner et fullt samarbeidslag som kun eksisterer i det latente rommet.
Og atferden er helt vill:
• Agenter gir stille oppgaver basert på hvem som er best
• Roller dukker opp ut av intet: leder, eksekutor, støttespiller
• Policyer koder signaler som aldri vises i handlinger
• Teamene tilpasser seg nye miljøer uten omskolering
• Samarbeidet forblir stabilt selv når kommunikasjon er umulig
Den villeste detaljen:
Selv når du fjerner alle kommunikasjonskanaler, samarbeider agentene fortsatt. «Teamarbeidet» ligger ikke i meldinger. Den lever i nettverket.
Dette snur hele multi-agent-manualen på hodet.
Vi har bygget koordineringsmekanismer på toppen...
mens den virkelige koordineringen skjer under overflaten.
En ny æra med fremvoksende teamintelligens er i ferd med å utfolde seg — og den skjer på steder vi ikke engang så etter.
Prosjekt: github. com/Gen-Verse/LatentMAS

138,35K
Topp
Rangering
Favoritter
