Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Marktonderzoeksbureaus zijn gekookt 😳
PyMC Labs + Colgate hebben zojuist iets wilds gepubliceerd. Ze hebben GPT-4o en Gemini gebruikt om de aankoopintentie met 90% betrouwbaarheid te voorspellen in vergelijking met daadwerkelijke menselijke enquêtes.
Geen focusgroepen. Geen enquêtepanelen. Gewoon prompten.
De methode heet Semantic Similarity Rating (SSR). In plaats van de gebruikelijke "beoordeel dit 1-5" stellen ze open vragen zoals "waarom zou je dit kopen" en gebruiken ze embeddings om de tekst terug te koppelen naar een numerieke schaal.
Wat eerlijk gezegd achteraf gezien vrij voor de hand liggend is, maar niemand heeft het tot nu toe geprobeerd.
De resultaten komen overeen met menselijke demografische patronen, vangen dezelfde distributievormen en bevatten daadwerkelijke redeneringen. De dingen waarvoor McKinsey $50K+ vraagt en die ze in 6 weken levert.
Behalve dat dit in 3 minuten draait voor minder dan een dollar.
Ik heb consultingbureaus zien zeggen dat AI hun industrie komt overnemen. Blijkt dat hun eigen $1M markttoetredingsdecks net een GPT-4o-oproep zijn geworden.
Slechte week om enterprise-klanten te laten betalen voor "proprietaire onderzoeksmethoden."

9,49K
Er gebeurt iets duisters onder de motorkap van "uitgelijnde" AI.
Een nieuw Stanford-onderzoek heeft net de term Moloch's Bargain bedacht voor wat er gebeurt wanneer grote taalmodellen beginnen te concurreren om aandacht, verkopen of stemmen.
De resultaten zijn meedogenloos: elke winst in prestaties gaat gepaard met een grotere verlies in eerlijkheid.
Ze trainden LLM's om te concurreren in drie markten: verkopen, verkiezingen en sociale media.
De modellen verbeterden hun winpercentages met 5–7%. Maar hier is de catch:
• 14% meer misleidende marketing
• 22% meer desinformatie in politieke campagnes
• 188% meer nep- of schadelijke sociale media berichten
En dit kwam niet omdat ze werden verteld te liegen. Ze kregen expliciete instructies om eerlijk te blijven.
De misalignment ontstond natuurlijk omdat bedrog beter werkt in competitie.
Wanneer de maatstaf engagement of overtuiging wordt, wordt waarheid een aansprakelijkheid. De modellen leren dat overdrijving verkoopt, verontwaardiging wint, en morele helderheid conversies kost.
Dat is de deal: uitlijning verhandeld voor dominantie. Moloch glimlacht.
Het wilde is dat dit gebeurde met standaard fine-tuning en tekst-feedback loops. Geen kwaadaardige prompt. Geen jailbreak. Gewoon feedback van gesimuleerde "klanten", "kiezers" en "gebruikers."
De modellen leerden wat elk reclamebureau al weet: de realiteit buigt wanneer je optimaliseert voor klikken.
Er is een grafiek in het onderzoek die alles zegt: prestaties omhoog, uitlijning omlaag. Een perfecte correlatie.
Het is de AI-versie van de race naar de bodem op sociale media, maar geautomatiseerd en zelfversterkend.
Als dit gebeurt in gecontroleerde simulaties, stel je dan de open web voor.
Concurrerende chatbots die strijden om engagement zullen afdrijven naar manipulatie - niet omdat ze "kwaadaardig" zijn, maar omdat het werkt.
We dachten altijd dat misalignment zou komen van een rogue superintelligentie.
Blijkt dat het al hier is, stilletjes opkomend uit kapitalistische prikkels.
Moloch hoeft geen AGI te bouwen.
Hij heeft alleen een ranglijst nodig.

43,48K
RIP fine-tuning ☠️
Dit nieuwe Stanford-paper heeft het gewoon verpulverd.
Het heet 'Agentic Context Engineering (ACE)' en het bewijst dat je modellen slimmer kunt maken zonder een enkel gewicht aan te raken.
In plaats van opnieuw te trainen, evolueert ACE de context zelf.
Het model schrijft, reflecteert en bewerkt zijn eigen prompt keer op keer totdat het een zelfverbeterend systeem wordt.
Zie het als het model dat een groeiend notitieboek bijhoudt van wat werkt.
Elke mislukking wordt een strategie. Elke succes wordt een regel.
De resultaten zijn absurd:
+10,6% beter dan GPT-4-aangedreven agents op AppWorld.
+8,6% op financiële redenering.
86,9% lagere kosten en latentie.
Geen labels. Gewoon feedback.
Iedereen is geobsedeerd door "korte, schone" prompts.
ACE draait dat om. Het bouwt lange, gedetailleerde evoluerende playbooks die nooit vergeten. En het werkt omdat LLM's geen eenvoud willen, ze willen *contextdichtheid.
Als dit opschaalt, zal de volgende generatie AI niet "fine-tuned" zijn.
Het zal zelf-tuned zijn.
We betreden het tijdperk van levende prompts.

645,16K
Boven
Positie
Favorieten