Her er et veldig interessant spørsmål jeg møtte. Når vi gir en AI-kodingsoppgave som tar 1 dag til 1 uke å utføre, er det i det hele tatt verdt å sammenligne og lære av forskjellige tilnærminger?
Dette er et grunnleggende spørsmål. Våre valg er 1. Bruk vibber for å finne ut hvor godt en langvarig oppgave gjorde 2. bruke et år på å sammenligne tilnærminger og teste teorier som kan være utdaterte når jeg får en utvalgsstørrelse som er verdt å vurdere
Å lære å bygge disse langvarige oppgavearbeidsflytene vil ha litt tragedie av felles. Investeringen for å lære riktig arbeidsflyt er mye høyere enn å kopiere et produkt du ser fungerer
For å forutsi hvor AI er på vei, kan du ikke bare bruke vibbene dine om hvor mye markøren har fått
Du må forstå HVORDAN AI blir bedre og nøyaktig hva den blir bedre på
Vi er for tiden i et stadium der vi bare skalerer opp systemene. Dette har en kjent fysisk grense vi treffer i løpet av de neste 5 til 10 årene
Noen ting kan vi se blir mye bedre etter hvert som det skaleres. Andre ferdigheter vi ser ikke forbedres
Det er veldig åpenbart at vi trenger et fundamentalt gjennombrudd som vi ikke kan forutsi eller vite om for å erstatte mennesker fundamentalt. Det er visse ting AI ikke er i rute for å oppnå som er nødvendige for å fjerne et menneske fra sløyfen
Hvis vi skøyter dit pucken går, bør den riktige arkitekturen være å anta modeller som er bedre enn dagens modeller på det de allerede er gode på, og identifisere hvor mye vi kan skalere en svært kompetent person til å være mer produktiv ved å gi dem verktøy. Engros erstatter mennesker NGMI
De smarteste menneskene jeg kjenner er utrolig effektive til å stille smarte undersøkende spørsmål
På denne beregningen er hver AI-modell dummere enn et menneskebarn