Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

tory.io 🦾
Medgründer av @ionet | Frigjør AI-ånden fra flasken 🧞 ♂️
Beregning skalerer prediksjon, ikke forståelse.
LLM-er komprimerer mønstre, de bygger ikke årsaksmodeller eller forfølger mål.
Manglende brikker: symbolsk AI, jordet tilbakemelding, langsiktig minne, verktøybruk.
Vi kommer ikke til AGI bare ved å skalere mot det.

Far El8. aug., 01:45
It’s clear that you can’t squeeze AGI out of LLMs even if you throw billions of dollars worth of compute at it, something fundamental is missing
10,84K
Masterclass i hvordan du bygger

mitsuri21. aug., 00:39
Noen av Apples tidligste ansatte snakker om Steve Jobs.
12,74K
Spesialister vinner. Klare overleveringer slår gjetting.
AI-agenter er ikke annerledes.
Arbeidsdeling + tett orkestrering > ett hovent kontekstvindu.
Et lengre vindu øker hukommelsen, ikke koordinasjonen. Du trenger fortsatt roller, ruting og kontroller.

Aaron Levie7. aug., 06:43
AI Agent-arbeidsdeling vil være avgjørende for å maksimere effekten av agenter.
Vi har lenge hatt en arbeidsdeling i organisasjoner fordi det å ha individuelle eksperter som overlater oppgaver til hverandre er mer effektivt enn en haug med generalister som prøver å gjøre ting på en annen måte hver gang. AI-agenter presenterer den samme dynamikken.
For at AI-agenter skal fungere, trenger du akkurat den rette mengden kontekst om oppgaven de prøver å fullføre. Dette betyr en dyp domeneforståelse, sett med kunnskap å jobbe ut fra, klare instruksjoner og sett med verktøy å bruke. For lite kontekst og agenten vil svikte. Likevel, likevel, etter hvert som mer av denne informasjonen kommer inn i kontekstvinduet, vet vi at modellene kan bli suboptimale.
For en kompleks forretningsprosess, hvis du legger all dokumentasjon, beskrivelse av arbeidsflyten og instruksjonene inn i kontekstvinduet, vet vi at dette til slutt kan føre til kontekstråte, noe som fører til dårligere resultater.
Den logiske arkitekturen i fremtiden er å dele agenter opp i atomære enheter som kartlegges til de riktige oppgavetypene og deretter få disse agentene til å jobbe sammen for å fullføre arbeidet sitt.
Vi ser allerede at dette utspiller seg effektivt i kodeagenter. Det dukker opp flere og flere eksempler med folk som setter opp underagenter som alle eier spesifikke deler av en kodebase eller et tjenesteområde. Hver agent er ansvarlig for en del av koden, og det finnes agentvennlig dokumentasjon for koden. Når det er behov for arbeid i det relevante området av kodebasen, koordinerer en orkestratoragent med disse underagentene.
Vi kan se at dette mønsteret sannsynligvis gjelder for nesten alle områder av kunnskapsarbeid i fremtiden. Dette vil gjøre det mulig å bruke AI-agenter til langt mer enn oppgavespesifikke brukstilfeller og utvides til å drive hele arbeidsflyter i bedriften.
Selv om AI-modeller forbedres for å kunne håndtere større kontekstvinduer, og intelligensnivåene går opp, er det ikke åpenbart at denne arkitekturen noen gang forsvinner. Det er sannsynlig at rollen til hver agent utvides etter hvert som evnene forbedres, men klare skillelinjer mellom underagenter kan alltid føre til bedre resultater.
21,15K
Glem nye parametere. Agenter lever eller dør på serveringslaget.
Ventetid, kostnad og frihet til å sende – ingenting annet betyr noe.
IO Cloud = global GPU-likviditet.
IO Intelligence = åpne modeller som faktisk kjører.
Infra vinner syklusen. IO bygger skinnene.

io.net8. aug., 02:02
GPT-5 er live.
Større modeller. Mer databehandling. Mer press på slutninger.
Dette handler ikke bare om trening lenger.
Det handler om hele stabelen som betjener agenter i sanntid.
leverer globale, desentraliserte GPU-er.
io.intelligence kjører åpen kildekode-modeller gjennom en enkelt API > rask, billig og ublokkert.
$IO akselererer AI
66,93K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til