Calcular escala a previsão, não a compreensão. Os LLMs comprimem padrões, não constroem modelos causais ou perseguem objetivos. Peças que faltam: IA simbólica, feedback fundamentado, memória de longo prazo, uso de ferramentas. Não chegamos à AGI apenas escalando em direção a ela.
Far El
Far El8 de ago., 01:45
É claro que você não pode espremer o AGI dos LLMs, mesmo que jogue bilhões de dólares em computação nele, algo fundamental está faltando
19,43K