Beräkning skalar förutsägelse, inte förståelse. LLM:er komprimerar mönster, de bygger inte kausala modeller eller strävar efter mål. Saknade delar: symbolisk AI, jordad feedback, minne med lång horisont, verktygsanvändning. Vi når inte AGI bara genom att skala mot det.
Far El
Far El8 aug. 01:45
It’s clear that you can’t squeeze AGI out of LLMs even if you throw billions of dollars worth of compute at it, something fundamental is missing
17,05K