Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Le fondateur d'AMI Labs, Yann LeCun, explique pourquoi les LLM nous trompent de la même manière que l'IA le fait depuis des décennies :
Il soutient que chaque génération de scientifiques en IA a commis la même erreur : confondre la performance des tâches avec la véritable intelligence.
Le défi principal de LeCun face à l'engouement actuel :
"Nous sommes trompés en pensant que ces machines sont intelligentes parce qu'elles peuvent manipuler le langage. Et nous sommes habitués au fait que les personnes qui peuvent manipuler le langage très bien sont implicitement intelligentes."
Il est clair que les LLM sont utiles, mais être un outil utile et être intelligent sont deux choses très différentes.
La véritable révélation est le schéma historique qu'il a vécu.
Depuis les années 1950, des vagues successives de chercheurs en IA ont affirmé que leur percée était le chemin vers une intelligence de niveau humain.
Marvin Minsky. Herbert Simon. Frank Rosenblatt — qui a inventé le perceptron, la première machine d'apprentissage, dans les années 1950 — ont tous prédit des machines aussi intelligentes que les humains dans la décennie suivante.
"Ils avaient tous tort."
LeCun a personnellement été témoin de trois de ces cycles d'engouement et de déception. Et son verdict sur le cycle actuel est franc :
"Cette génération avec les LLM est également dans l'erreur. C'est juste un autre exemple d'être trompé."
Le schéma : Une nouvelle technique émerge → les machines deviennent performantes dans des tâches spécifiques → nous supposons une intelligence générale.
La question qui mérite d'être posée : sommes-nous impressionnés par ces outils parce qu'ils sont intelligents, ou parce qu'ils semblent l'être ?
Meilleurs
Classement
Favoris
