La predicción de escalas computacionales, sin comprensión. Los LLMs comprimen patrones, no construyen modelos causales ni persiguen objetivos. Piezas faltantes: IA simbólica, retroalimentación fundamentada, memoria a largo plazo, uso de herramientas. No llegamos a la AGI simplemente escalando hacia ella.
Far El
Far El8 ago, 01:45
Está claro que no puedes obtener AGI de los LLMs, incluso si inviertes miles de millones de dólares en computación, algo fundamental está faltando.
17,04K