La prédiction des échelles de calcul, sans compréhension. Les LLMs compressent des motifs, ils ne construisent pas de modèles causaux ni ne poursuivent des objectifs. Éléments manquants : IA symbolique, retour d'information ancré, mémoire à long terme, utilisation d'outils. Nous n'atteindrons pas l'AGI simplement en l'échelonnant.
Far El
Far El8 août, 01:45
Il est clair que vous ne pouvez pas tirer de l'AGI des LLMs même si vous y investissez des milliards de dollars en puissance de calcul, quelque chose de fondamental manque.
17,03K