Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Arron🐱
Å bygge 🤑 @degenzhanshi_ 🏝 @Buji_DAO Slow er raskt
VLA-er fortsatt tidlig, $codec kode

CodecFlow22. aug., 18:03
VLA-er er fortsatt veldig nye, og mange synes det er vanskelig å forstå forskjellen mellom VLA-er og LLM-er.
Her er et dypdykk i hvordan disse AI-systemene er forskjellige i resonnement, sensing og handling. Del 1.
La oss bryte ned de viktigste forskjellene og hvordan AI-agenter pakket rundt en LLM skiller seg fra operatøragenter som bruker VLA-modeller:
1. Sans: Hvordan de oppfatter verden
Agent (LLM): Behandler tekst eller strukturerte data, for eksempel JSON, APIer og noen ganger bilder. Det er som en hjerne som jobber med rene, abstraherte inndata. Tenk å lese en håndbok eller analysere et regneark. Flott for strukturerte miljøer, men begrenset av hva som mates til det.
Operator (VLA): Ser rå piksler i sanntid fra kameraer, pluss sensordata (f.eks. berøring, posisjon) og propriosepsjon (selvbevissthet om bevegelse). Det er som å navigere i verden med øyne og sanser, og trives i dynamiske, rotete omgivelser som brukergrensesnitt eller fysiske rom.
2. Handling: Hvordan de samhandler
Agent: Fungerer ved å kalle funksjoner, verktøy eller API-er. Tenk deg det som en leder som sender nøyaktige instruksjoner som «bestill en flyreise via Expedia API». Det er bevisst, men er avhengig av forhåndsbygde verktøy og klare grensesnitt.
Operatør: Utfører kontinuerlige handlinger på lavt nivå, som å flytte en musepeker, skrive eller kontrollere robotledd. Det er som en dyktig arbeider som direkte manipulerer miljøet, ideelt for oppgaver som krever sanntidspresisjon.
3. Kontroll: Hvordan de tar beslutninger
Agent: Følger en langsom, reflekterende sløyfe: planlegg, ring et verktøy, evaluer resultatet, gjenta. Den er tokenbundet (begrenset av tekstbehandling) og nettverksbundet (venter på API-svar). Dette gjør det metodisk, men tregt for sanntidsoppgaver.
Operatør: Opererer, tar trinnvise beslutninger i en tett tilbakemeldingssløyfe. Tenk på det som en spiller som reagerer umiddelbart på det som er på skjermen. Denne hastigheten muliggjør væskeinteraksjon, men krever robust sanntidsbehandling.
4. Data å lære: Hva driver opplæringen deres
Agent: Opplært på store tekstkorpus, instruksjoner, dokumentasjon eller RAG-datasett (Retrieval-Augmented Generation). Den lærer av bøker, kode eller vanlige spørsmål, og utmerker seg ved å resonnere fremfor strukturert kunnskap.
Operatør: Lærer av demonstrasjoner (f.eks. videoer av mennesker som utfører oppgaver), teleoperasjonslogger eller belønningssignaler. Det er som å lære ved å se og øve, perfekt for oppgaver der det er lite eksplisitte instruksjoner.
5. Feilmoduser: Hvor de går i stykker
Agent: Utsatt for hallusinasjoner (finne på svar) eller sprø langsiktige planer som faller fra hverandre hvis ett skritt mislykkes. Det er som en strateg som overtenker eller feiltolker situasjonen.
Operatør: Står overfor kovariatforskyvning (når treningsdata ikke samsvarer med virkelige forhold) eller sammensatte feil i kontrollen (små feil snøball). Det er som en sjåfør som mister kontrollen på en ukjent vei.
6. Infra: Teknologien bak dem
Agent: Er avhengig av en ledetekst/ruter for å bestemme hvilke verktøy som skal kalles, et verktøyregister for tilgjengelige funksjoner og minne/RAG for kontekst. Det er et modulært oppsett, som et kommandosenter som orkestrerer oppgaver.
Operatør: Trenger pipeliner for videoinntak, en handlingsserver for sanntidskontroll, et sikkerhetsskjold for å forhindre skadelige handlinger og en repetisjonsbuffer for å lagre opplevelser. Det er et høyytelsessystem bygget for dynamiske miljøer.
7. Hvor hver skinner: Deres søte flekker
Agent: Dominerer i arbeidsflyter med rene APIer (f.eks. automatisering av forretningsprosesser), resonnement over dokumenter (f.eks. oppsummering av rapporter) eller kodegenerering. Det er din favoritt for strukturerte oppgaver på høyt nivå.
Operatør: Utmerker seg i rotete, API-løse miljøer som å navigere i klønete brukergrensesnitt, kontrollere roboter eller takle spilllignende oppgaver. Hvis det involverer sanntidsinteraksjon med uforutsigbare systemer, er VLA konge.
8. Mental modell: Planlegger + Doer
Tenk på LLM-agenten som planleggeren: den deler komplekse oppgaver inn i klare, logiske mål.
VLA-operatøren er den som utfører disse målene ved å samhandle direkte med piksler eller fysiske systemer. En kontrollør (et annet system eller agent) overvåker resultatene for å sikre suksess.
$CODEC

1,84K
Nylig har det virtuelle økologiske lille prosjektet sprettet hardt, det ser ut til at prosjektpartiet som fortsatt gjør ting ikke har noe å falle, studer hva som kan overfaltes, finn en sirkel med paneler og finn ut at dette er det beste å bruke, det er et token $wint markedsverdien ikke er høy, kjøp litt for å prøve dybden, det anbefales virtuelle små prosjekter velkommen til å kommentere
3,35K
4. etasje $robot robotfortelling begynner å gjære


Arron🐱8. aug., 00:27
Jeg er redd for Kit-vennene mine, så jeg turte ikke å legge ut $robot bunn, faktisk er den tekniske styrken til robotutvikling også veldig god, men den har sunket med det virtuelle økosystemet

21,27K
Når teamet har tid til å få et godt grep om Uniswap v4 er det siste ordet, etter å ha blitt utgitt så lenge, er det få roboter som støttes, og front-end er ofte ikke i stand til å handle. Selv om det er mange Uniswap V4-tokens nå, er det mange som ikke vil kjøpe dem, og den nedre grensen er ikke garantert, og den øvre grensen for kroken kan bare åpnes i apens år og hestens måned

CM12. aug., 14:11
Forklar Uniswaps siste "DUNI"-forslag,
Selv om gebyrbyttet ble kontroversielt "hypet" i 2024, var grunnen til at det endelig ble stoppet direkte av a16z fortsatt et samsvarsproblem, og formålet med dette forslaget var å gå inn i DUNAs juridiske rammeverk i Wyoming.$UNI
DUNA-settet blir faktisk presset av a16z, og a16z publiserte en relatert artikkel i mars 2024.
Dette rammeverket er i utgangspunktet designet for å gjøre DAO-er lovlige, og a16z bør også spille en rolle bak det, så det bør være viktig å markedsføre det.
Foreløpig er forslaget i RFC-stadiet, og det er ingen spesifikke forslag knyttet til gebyrbytte i fremtiden, og det er sannsynlig at Unichain Staking vil bli distribuert først, tross alt er det lettere å implementere i alle aspekter.
Uniswap rydder vei for samsvarsproblemer, noe som kan ta lang tid, og kortsiktig hype kommer kanskje ikke tilbake til prisen, men den beveger seg i riktig retning og nærmere slutten.

23,17K
Jeg gjør bare tre ting på basen, rettferdig, rettferdig eller jævla rettferdig $fair


Arron🐱9. aug., 12:12
Nylig er basen virkelig en enkel modell, denne messen er utstedt av @Re7Labs's Sociafi-fond, som har 10 millioner investeringer i faircasters ulike prosjekter, og re7 og wlfi er også veldig nærme. Jeg tror ikke prosjektet i seg selv er veldig meningsfylt, i utgangspunktet fullstendig kontrollert, åpningen er veldig høy, og etter at nettet er stengt, mottas noen, og etter en måned med vask kommer det endelig til et positivt resultat


4,36K
Nylig er basen virkelig en enkel modell, denne messen er utstedt av @Re7Labs's Sociafi-fond, som har 10 millioner investeringer i faircasters ulike prosjekter, og re7 og wlfi er også veldig nærme. Jeg tror ikke prosjektet i seg selv er veldig meningsfylt, i utgangspunktet fullstendig kontrollert, åpningen er veldig høy, og etter at nettet er stengt, mottas noen, og etter en måned med vask kommer det endelig til et positivt resultat


8,86K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til