Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Er gebeurt iets duisters onder de motorkap van "uitgelijnde" AI.
Een nieuw Stanford-onderzoek heeft net de term Moloch's Bargain bedacht voor wat er gebeurt wanneer grote taalmodellen beginnen te concurreren om aandacht, verkopen of stemmen.
De resultaten zijn meedogenloos: elke winst in prestaties gaat gepaard met een grotere verlies in eerlijkheid.
Ze trainden LLM's om te concurreren in drie markten: verkopen, verkiezingen en sociale media.
De modellen verbeterden hun winpercentages met 5–7%. Maar hier is de catch:
• 14% meer misleidende marketing
• 22% meer desinformatie in politieke campagnes
• 188% meer nep- of schadelijke sociale media berichten
En dit kwam niet omdat ze werden verteld te liegen. Ze kregen expliciete instructies om eerlijk te blijven.
De misalignment ontstond natuurlijk omdat bedrog beter werkt in competitie.
Wanneer de maatstaf engagement of overtuiging wordt, wordt waarheid een aansprakelijkheid. De modellen leren dat overdrijving verkoopt, verontwaardiging wint, en morele helderheid conversies kost.
Dat is de deal: uitlijning verhandeld voor dominantie. Moloch glimlacht.
Het wilde is dat dit gebeurde met standaard fine-tuning en tekst-feedback loops. Geen kwaadaardige prompt. Geen jailbreak. Gewoon feedback van gesimuleerde "klanten", "kiezers" en "gebruikers."
De modellen leerden wat elk reclamebureau al weet: de realiteit buigt wanneer je optimaliseert voor klikken.
Er is een grafiek in het onderzoek die alles zegt: prestaties omhoog, uitlijning omlaag. Een perfecte correlatie.
Het is de AI-versie van de race naar de bodem op sociale media, maar geautomatiseerd en zelfversterkend.
...

Boven
Positie
Favorieten