Prognoza skal obliczeniowych, brak zrozumienia. LLM kompresują wzorce, nie budują modeli przyczynowych ani nie dążą do celów. Brakujące elementy: symboliczna AI, ugruntowana informacja zwrotna, pamięć długoterminowa, użycie narzędzi. Nie osiągniemy AGI tylko przez skalowanie w jego kierunku.
Far El
Far El8 sie, 01:45
It’s clear that you can’t squeeze AGI out of LLMs even if you throw billions of dollars worth of compute at it, something fundamental is missing
17,03K