Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Skaperen av AuditAgent | AI x Crypto x Produkt | Bygge agentisk økonomi
Hvorfor ga OpenAI ut modeller med åpne vekter? Å drepe sin egen virksomhet ... (eller ikke?)
Ja, @OpenAI nettopp gitt ut to modeller med åpne vekter, noe som betyr at utviklere kan bruke dem uten å betale OpenAI noe. Nærmere bestemt er den utgitt under den mest liberale kommersielle Apache 2.0-lisensen. Så hvorfor gjorde OpenAI dette? Det er flere aspekter.
Men jeg vil presisere at når et selskap gir ut en modell med åpne vekter, betyr det ikke at modellen er like åpen kildekode som åpen kildekode som du kan kjøre selv, som det @Linux operativsystemet. Nei, med AI-modeller er det litt annerledes. Spesielt er en modell en svart boks, et sett med vekter. Og selv om du kan teste den på forskjellige oppgaver og se hvordan den fungerer, hvis du ikke kan reprodusere treningsprosessen, kan du aldri vite om det er noen bakdører eller sikkerhetssårbarheter som med vilje eller ved et uhell havnet inne i denne modellen. Så la oss skille dette fra åpen kildekode med en gang. Dessverre kan modeller med åpen kildekode-vekter ikke stoles fullt ut på (de kan imidlertid være chep).
Det andre aspektet jeg la merke til, vist på bildet, er at kvaliteten på åpen kildekode-modeller ikke er veldig forskjellig fra OpenAIs flaggskipmodeller som kun er tilgjengelige via API. Dette er flott! Dette er uventet! Du skulle tro hvor mye penger OpenAI kan tape ved å la utviklere bruke modellene deres? Dette er imidlertid ikke alt. Modeller er ikke alt du får når du bruker OpenAI gjennom API. For eksempel, når du bruker ChatGPT via brukergrensesnittet og velger o3-modellen, er det faktisk en kompleks agent som jobber under panseret som, mens du bruker disse modellene, har mye logikk skrevet på toppen for å virkelig fungere godt med dokumentene og verktøyene dine. Du får ikke tilgang til dem via disse modellene OpenAI publiserte.
Så hvorfor ga OpenAI ut modeller med åpne vekter? For det første har hovedkonkurrentene deres, spesielt @Meta, @MistralAI og @deepseek_ai (oh og @Google), allerede gitt ut konkurrerende modeller med åpne vekter som folk bruker. Og OpenAIs popularitet blant folk som bruker åpne modeller vokser ikke. Men for utviklere som trenger begge modellene med åpne vekter (for lokale/private beregninger) sammen med API-tilgjengelige modeller (for vanskeligere ting), hvis de trenger begge, kan de rett og slett ikke bruke OpenAI. Det er lettere for dem å bruke konkurrentene sine som Google eller DeepSeek.
For det andre er det betydelig press fra både brukere og regulatorer som ønsker mer åpenhet. Folk er bekymret for at AI kan komme ut av kontroll eller falle under kontroll av en smal gruppe selskaper i Silicon Valley, og folk vil ha mer åpenhet. Selv om jeg tør si at selv om jeg bare bekymrer deg for konkurranse og synkende salg, vil et slikt skritt mot åpenhet sannsynligvis gjøre OpenAIs virksomhet enda større.
Og for det tredje er det selvfølgelig vitsen om OpenAIs firmanavn. Å dømme etter hvordan alt utviklet seg, var selskapet som heter OpenAI det mest lukkede AI-selskapet blant lederne. Dette er morsomt i seg selv, men nå har dette endret seg. Hva tror du?

360
De fleste forstår ikke i det hele tatt hvordan erstatning av mennesker med AI fungerer (eller hvordan det IKKE fungerer). Selv en tidobling av alt en spesialist gjør sletter ikke automatisk selve jobben – den bare omskriver økonomien rundt den. Når den effektive prisen på en leveranse stuper, blir latent etterspørsel som pleide å sitte på hyllen plutselig levedyktig. Jeg har aldri møtt en produkteier som tror ingeniørene deres sender flere funksjoner enn veikartet trenger; Ønskelisten er alltid lengre enn antall ansatte tillater. Gjør hver funksjon ti ganger billigere å bygge, og du kutter ikke teamene med en faktor på ti – du lyser opp alle «kjekt å ha» som en gang så uoverkommelige ut, pluss hele greenfield-produkter som ingen brydde seg om å vurdere.
En fersk @Microsoft Research-studie om Copilot-bruk i den virkelige verden understreker det samme poenget. Brukere kommer for å få hjelp til å utarbeide kode eller samle fakta, men modellen ender opp med å coache, gi råd og undervise – og brette helt nye typer arbeid inn i en enkelt økt. Yrker er ikke monolitter; de er bunter av delprosesser, hver bare delvis (og ufullkomment) dekket av dagens modeller. Etter hvert som AI-verktøy utvikler seg, utvikler omfanget av rollen seg med dem, og utvides ofte i stedet for å krympe.
Selv i en AI-smart kontraktsrevisor som vi har bygget på @NethermindEth, til tross for navnet, retter vi oss mot en veldig spesifikk smal del av prosessen: å finne potensielle sårbarheter. I mellomtiden bruker sikkerhetsspesialister dette som et verktøy og gjør mye mer komplekst og mangefasettert arbeid – formulere strategier, validere funn, korrigere AI, legge til implisitt kontekst, kommunisere med utviklere, oppdage skjulte intensjoner og håndtere forventninger.
Så i stedet for å telle hvilke jobber som vil "forsvinne", er det mer nyttig å spørre hvilke problemer som blir verdt å løse når marginalkostnaden for å løse dem faller utfor en klippe. Historien antyder at svaret er "langt mer enn vi kan bemanne for", og det argumenterer for en fremtid der talent omdisponeres og multipliseres, ikke gjøres foreldet.


388
Andrej Karpathy støtter innføringen av et nytt begrep relatert til "kontekstteknikk" i AI-programvareutvikling ved hjelp av LLM-er.
Og dette begrepet har lenge virket veldig nødvendig. Hver gang jeg forklarer folk hvordan vi utvikler vår Nethermind AuditAgent, er et av nøkkelaspektene, i tillegg til å bruke domeneekspertise (web3-sikkerhet) og bruke de beste tilgjengelige AI-modellene (fra OpenAI, Anthropic og Google), og verktøy for LLM, nettopp "kontekstteknikk".
Noen ganger er det et uttrykk "kontekst er kongen", og det er virkelig sant. LLM-er, enten de er store avanserte eller optimaliserte små LLM-er, er et kraftig verktøy, men som ethvert verktøy, hvis det er i feil hender, vil du få mye mindre lovende resultater enn du kunne hvis du jobber med dem riktig. Og kontekststyring (eller engineering) er virkelig et komplekst og lite godt beskrevet område som er i stadig utvikling, og det dukket virkelig opp som en utvidelse av konseptet prompt engineering, som allerede har noen negative konnotasjoner.
Samlet sett listet Andrej opp hovedaspektene knyttet til kontekstteknikk (på det andre skjermbildet), men i hver spesifikke oppgave oppnår folk utmerkede resultater i stor grad gjennom prøving og feiling, hver gang monotont prøver å velge de riktige kontekstelementene som virkelig trengs på dette stadiet av problemløsning, samle benchmarks for hvert trinn, se på beregninger, dele datasett inn i test, validering, og så videre, og så videre.
Hva synes du om «kontekstteknikk»?

Andrej Karpathy25. juni 2025
+1 for "kontekstteknikk" over "rask utvikling".
Folk assosierer spørsmål med korte oppgavebeskrivelser du vil gi en LLM i din daglige bruk. I alle LLM-apper med industriell styrke er kontekstteknikk den delikate kunsten og vitenskapen om å fylle kontekstvinduet med akkurat den riktige informasjonen for neste trinn. Vitenskap fordi å gjøre dette riktig innebærer oppgavebeskrivelser og forklaringer, noen få skuddeksempler, RAG, relaterte (muligens multimodale) data, verktøy, tilstand og historie, komprimering ... For lite eller av feil form, og LLM har ikke riktig kontekst for optimal ytelse. For mye eller for irrelevant, og LLM-kostnadene kan gå opp og ytelsen kan gå ned. Å gjøre dette bra er høyst ikke-trivielt. Og kunst på grunn av den veiledende intuisjonen rundt LLM-psykologi til menneskeånder.
I tillegg til selve kontekstutviklingen, må en LLM-app:
- bryte opp problemer helt riktig i kontrollflyter
- Pakk kontekstvinduene helt riktig
- sende anrop til LLM-er av riktig type og kapasitet
- håndtere UIUX-flyter for genereringsverifisering
- mye mer - rekkverk, sikkerhet, evals, parallellitet, forhåndshenting, ...
Så kontekstteknikk er bare en liten del av et fremvoksende tykt lag med ikke-triviell programvare som koordinerer individuelle LLM-anrop (og mye mer) til fullstendige LLM-apper. Begrepet "ChatGPT-innpakning" er sliten og veldig, veldig feil.
449
I går satte vi et nytt produkt i produksjon – I.R.I.S. (Integrity & Risk Intelligence Scanner), den første AI-agenten på X (tidligere Twitter) som:
• Godtar et repo for smartkontrakter eller adressen til en distribuert kontrakt
• Kjører koden gjennom vår SaaS-plattform AuditAgent – allerede en markedsledende løsning som brukes av eksterne revisorer og utviklerteam
• Publiserer en fullstendig sårbarhetsrapport uten å forlate den sosiale feeden
Hvorfor?
• En friksjonsfri kanal. Utviklere får en revisjon der de allerede snakker om kode – ingen skjemaer, ingen e-posttråder.
• AuditAgent under panseret. Ikke bare en «skannemotor», men flaggskiptjenesten vår som driver revisjoner i den virkelige verden.
• Innsikt på ~30 minutter. Perfekt triage før en dyp manuell gjennomgang.
• Go-to-market-økning. Twitter-agenten viser frem AuditAgents styrke og kanaliserer brukere til hele plattformen.
Første 16 timer på tidslinjen
✨ 2.7 M visninger
🔥 49 K-engasjementer
📊 85 % positivt sentiment (214 tweets)
🛠️ ≈150 tweets som deler praktiske brukstilfeller
🔍 33 ekspressrevisjoner
📋 38 454 linjer med kode skannet
⚠️ 377 sårbarheter oppdaget
Et personlig notat
For nøyaktig et år siden begynte jeg i Nethermind med det som hørtes ut som en risikabel hypotese: "AI vil bli en viktig del av smartkontraktssikkerhet, men bare spesialiserte, arbeidsflytbaserte verktøy vil virkelig hjelpe fagfolk."
Tolv måneder senere har vi to produkter i produksjon – AuditAgent (og nå I.R.I.S.(@UndercoverIRIS) – og en klar innvirkning på Web3-sikkerheten.
Stor takk til hele @NethermindEth AI-teamet og til @virtuals_io. Utholdenhet + en solid hypotese + kombinert kompetanse = resultater næringen kan se.
Vi vil fortsette å bygge verktøy som gir sikkerhet til utviklere først – slik at Web3 blir tryggere for hver forpliktelse.

821
Nettopp tilbake fra AI Summit London – og Enterprise-AI-landskapet ser veldig annerledes ut på nært hold
3 ting som traff meg:
1️⃣ Overfylte produkthyller.
Hver stand lovet en plug-and-play "AI-plattform" som på magisk vis passer til enhver stabel. Men gå lenge nok, og du fortsetter å høre den samme blokkeringen: eldre systemer uten APIer, spredte data, uklar forretningslogikk. Virkeligheten vil være brutal for SaaS som passer alle.
2️⃣ Skreddersydde butikker skinner stille.
Byråer som kombinerer dyp domenerådgivning med rask tilpasset utvikling har en klar fordel. De kan slippe inn i den rotete midten, sy ting sammen og sende noe som faktisk går inn i en klients sprø infrastruktur.
3️⃣ Tilpasset arbeid blir billigere, ikke dyrere.
Med kodegen-modeller som skriver adaptere, tester og stillas, orkestrerer seniorutviklere nå i stedet for å skrive for hånd. Vår erfaring med kontinuerlig bruk av AI-verktøy i organisasjonen bekrefter bare dette.
Takeaway
Vinnerne i Enterprise AI vil ikke være de mest prangende «out-of-the-box»-agentene – de vil være de kvikke teamene som kan samskape løsninger i sanntid, styrt av de rotete begrensningene til eldre teknologi.

350
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til