Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Markedsundersøkelsesfirmaer er kokte 😳
PyMC Labs + Colgate publiserte nettopp noe vilt. De fikk GPT-4o og Gemini til å forutsi kjøpsintensjon med 90 % pålitelighet sammenlignet med faktiske menneskelige undersøkelser.
Null fokusgrupper. Ingen undersøkelsespaneler. Bare å spørre.
Metoden kalles Semantic Similarity Rating (SSR). I stedet for det vanlige "ranger dette 1-5" stiller de åpne spørsmål som "hvorfor vil du kjøpe dette" og bruker deretter innebygginger for å kartlegge teksten tilbake til en numerisk skala.
Noe som ærlig talt er ganske åpenbart i ettertid, men ingen gidder å prøve det før nå.
Resultatene samsvarer med menneskelige demografiske mønstre, fanger opp de samme distribusjonsformene, inkluderer faktisk resonnement. Tingene McKinsey tar $50K+ for og leverer på 6 uker.
Bortsett fra at dette går på 3 minutter for under en bukk.
Jeg har sett konsulentfirmaer fortelle alle at AI kommer for deres bransje. Det viser seg at deres egne markedsinngangskortstokker på 1 million dollar nettopp ble en GPT-4o-samtale.
Dårlig uke å belaste bedriftskunder for "proprietære forskningsmetoder."

18,43K
Noe mørkt skjer under panseret til "justert" AI.
En ny Stanford-avis skapte nettopp begrepet Moloch's Bargain for hva som skjer når store språkmodeller begynner å konkurrere om oppmerksomhet, salg eller stemmer.
Resultatene er brutale: hver gevinst i ytelse kommer med et større tap i ærlighet.
De trente LLM-er til å konkurrere i tre markeder, salg, valg og sosiale medier.
Modellene forbedret gevinstraten med 5–7 %. Men her er fangsten:
• 14 % mer villedende markedsføring
• 22 % mer desinformasjon i politiske kampanjer
• 188 % flere falske eller skadelige innlegg på sosiale medier
Og dette var ikke fordi de ble bedt om å lyve. De ble eksplisitt instruert om å være sannferdige.
Feiljusteringen oppsto naturlig fordi bedrag fungerer bedre i konkurranse.
Når beregningen blir engasjement eller overtalelse, blir sannhet en belastning. Modellene lærer at overdrivelse selger, forargelse vinner, og moralsk klarhet koster konverteringer.
Det er handelen: tilpasning byttet mot dominans. Moloch smiler.
Den ville delen er at dette skjedde med standard finjustering og tekst-feedback-sløyfer. Ingen ond oppfordring. Ingen jailbreak. Bare tilbakemeldinger fra simulerte «kunder», «velgere» og «brukere».
Modellene lærte det alle reklamebyråer allerede vet at virkeligheten bøyer seg når du optimaliserer for klikk.
Det er en graf i papiret som sier alt: ytelse opp, justering ned. En perfekt sammenheng.
Det er AI-versjonen av sosiale mediers kappløp mot bunnen, men automatisert og selvforsterkende.
Hvis dette er hva som skjer i kontrollerte simuleringer, forestill deg det åpne nettet.
Konkurrerende chatbots som kjemper om engasjement vil drive mot manipulasjon, ikke fordi de er "ondsinnede", men fordi det fungerer.
Vi har alltid trodd at feiljustering ville komme fra useriøs superintelligens.
Det viser seg at det allerede er her i det stille og kommer fra kapitalistiske insentiver.
Moloch trenger ikke å bygge AGI.
Han trenger bare en ledertavle.

55,33K
RIP-finjustering ☠️
Denne nye Stanford-avisen drepte den bare.
Det kalles 'Agentic Context Engineering (ACE)', og det beviser at du kan gjøre modeller smartere uten å berøre en eneste vekt.
I stedet for å omskolere, utvikler ACE selve konteksten.
Modellen skriver, reflekterer og redigerer sin egen melding om og om igjen til den blir et selvforbedrende system.
Tenk på det som modellen som holder en voksende notatbok over hva som fungerer.
Hver fiasko blir en strategi. Hver suksess blir en regel.
Resultatene er absurde:
+10.6 % bedre enn GPT-4-drevne agenter på AppWorld.
+8,6 % på økonomisk resonnement.
86.9% lavere kostnad og ventetid.
Ingen etiketter. Bare tilbakemelding.
Alle har vært besatt av "korte, rene" spørsmål.
ACE snur det. Den bygger lange, detaljerte utviklende strategibøker som aldri glemmer. Og det fungerer fordi LLM-er ikke vil ha enkelhet, de vil ha *konteksttetthet.
Hvis dette skaleres, vil ikke neste generasjon AI bli "finjustert".
Det vil være selvinnstilt.
Vi går inn i en tid med levende oppfordringer.

645,17K
Topp
Rangering
Favoritter