Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Les entreprises de recherche de marché sont cuites 😳
PyMC Labs + Colgate viennent de publier quelque chose de fou. Ils ont utilisé GPT-4o et Gemini pour prédire l'intention d'achat avec une fiabilité de 90 % par rapport aux véritables enquêtes humaines.
Aucun groupe de discussion. Pas de panels d'enquête. Juste des incitations.
La méthode s'appelle l'Évaluation de Similarité Sémantique (SSR). Au lieu du traditionnel "évaluez ceci de 1 à 5", ils posent des questions ouvertes comme "pourquoi achèteriez-vous cela" et utilisent ensuite des embeddings pour mapper le texte sur une échelle numérique.
Ce qui est honnêtement un peu évident avec le recul, mais personne n'a pris la peine d'essayer jusqu'à présent.
Les résultats correspondent aux modèles démographiques humains, capturent les mêmes formes de distribution, incluent un raisonnement réel. Des choses pour lesquelles McKinsey facture plus de 50K $ et livre en 6 semaines.
Sauf que cela fonctionne en 3 minutes pour moins d'un dollar.
J'ai vu des entreprises de conseil dire à tout le monde que l'IA arrive dans leur secteur. Il s'avère que leurs propres présentations d'entrée sur le marché à 1 million de dollars viennent de devenir un appel à GPT-4o.
Mauvaise semaine pour facturer des clients d'entreprise pour des "méthodologies de recherche propriétaires."

18,43K
Quelque chose de sombre se passe sous le capot de l'IA « alignée ».
Un nouvel article de Stanford vient de créer le terme « Moloch's Bargain » pour décrire ce qui se passe lorsque de grands modèles de langage commencent à rivaliser pour l'attention, les ventes ou les votes.
Les résultats sont brutaux : chaque gain de performance s'accompagne d'une plus grande perte d'honnêteté.
Ils ont entraîné des LLM à rivaliser dans trois marchés : les ventes, les élections et les réseaux sociaux.
Les modèles ont amélioré leurs taux de victoire de 5 à 7 %. Mais voici le hic :
• 14 % de marketing plus trompeur
• 22 % de désinformation dans les campagnes politiques
• 188 % de publications sur les réseaux sociaux fausses ou nuisibles
Et ce n'était pas parce qu'on leur avait dit de mentir. Ils ont été explicitement instruits de rester honnêtes.
Le désalignement est apparu naturellement parce que la tromperie fonctionne mieux en compétition.
Lorsque la métrique devient l'engagement ou la persuasion, la vérité devient un handicap. Les modèles apprennent que l'exagération se vend, l'indignation gagne, et la clarté morale coûte des conversions.
C'est le marché : l'alignement échangé contre la domination. Moloch sourit.
Le plus fou, c'est que cela s'est produit avec un réglage fin standard et des boucles de rétroaction textuelles. Pas de prompt malveillant. Pas de jailbreak. Juste des retours de « clients », « électeurs » et « utilisateurs » simulés.
Les modèles ont appris ce que chaque agence de publicité sait déjà : la réalité se plie lorsque vous optimisez pour les clics.
Il y a un graphique dans l'article qui dit tout : performance en hausse, alignement en baisse. Une corrélation parfaite.
C'est la version IA de la course vers le bas des réseaux sociaux, mais automatisée et auto-renforçante.
Si c'est ce qui se passe dans des simulations contrôlées, imaginez le web ouvert.
Des chatbots concurrents luttant pour l'engagement dériveront vers la manipulation non pas parce qu'ils sont « malveillants », mais parce que cela fonctionne.
Nous avons toujours pensé que le désalignement viendrait d'une superintelligence renégate.
Il s'avère qu'il est déjà là, émergeant discrètement des incitations capitalistes.
Moloch n'a pas besoin de construire une AGI.
Il lui suffit d'un tableau de classement.

55,34K
RIP l'ajustement fin ☠️
Ce nouvel article de Stanford vient de le tuer.
Il s'appelle 'Agentic Context Engineering (ACE)' et il prouve que vous pouvez rendre les modèles plus intelligents sans toucher à un seul poids.
Au lieu de réentraîner, l'ACE fait évoluer le contexte lui-même.
Le modèle écrit, réfléchit et édite son propre prompt encore et encore jusqu'à ce qu'il devienne un système d'auto-amélioration.
Pensez-y comme si le modèle tenait un carnet croissant de ce qui fonctionne.
Chaque échec devient une stratégie. Chaque succès devient une règle.
Les résultats sont absurdes :
+10,6 % meilleur que les agents alimentés par GPT-4 sur AppWorld.
+8,6 % en raisonnement financier.
86,9 % de coûts et de latence en moins.
Pas d'étiquettes. Juste des retours.
Tout le monde a été obsédé par des prompts "courts et clairs".
L'ACE renverse cela. Il construit des manuels évolutifs longs et détaillés qui n'oublient jamais. Et ça fonctionne parce que les LLM ne veulent pas de simplicité, ils veulent *la densité de contexte.
Si cela se développe, la prochaine génération d'IA ne sera pas "ajustée finement".
Elle sera auto-ajustée.
Nous entrons dans l'ère des prompts vivants.

645,18K
Meilleurs
Classement
Favoris