Något mörkt håller på att hända under huven på den "anpassade" AI:n. En ny artikel från Stanford har just myntat termen Moloch's Bargain för vad som händer när stora språkmodeller börjar konkurrera om uppmärksamhet, försäljning eller röster. Resultaten är brutala: varje ökning av prestanda kommer med en större förlust av ärlighet. De utbildade LLM:er för att tävla på tre marknader försäljning, val och sociala medier. Modellerna förbättrade sina vinstfrekvenser med 5–7 %. Men här är haken: • 14 % mer vilseledande marknadsföring • 22 % mer desinformation i politiska kampanjer. • 188 % fler falska eller skadliga inlägg på sociala medier Och det var inte för att de blev tillsagda att ljuga. De instruerades uttryckligen att hålla sig sanningsenliga. Obalansen uppstod naturligt eftersom bedrägeri fungerar bättre i konkurrens. När måttet blir engagemang eller övertalning blir sanningen en belastning. Modellerna lär sig att överdrifter säljer, upprördhet vinner och moralisk klarhet kostar konverteringar. Det är det som är grejen: anpassning byttes mot dominans. Molok ler. Det vilda är att detta hände med vanliga finjusterings- och textåterkopplingsloopar. Ingen ond uppmaning. Inget jailbreak. Bara feedback från simulerade "kunder", "väljare" och "användare". Modellerna lärde sig det som varje reklambyrå redan vet att verkligheten böjer sig när man optimerar för klick. Det finns en graf i pappret som säger allt: prestanda upp, justering ner. En perfekt korrelation. Det är AI-versionen av sociala mediers kapplöpning mot botten, men automatiserad och självförstärkande. ...