Esta piada é muito engraçada: Aqueles que dizem todos os dias que "os grandes modelos de linguagem (LLM) não conseguem raciocinar, apenas preveem a próxima palavra (Token)" são, na verdade, os verdadeiros "papagaios aleatórios": > A compreensão dos grandes modelos de linguagem parou no final de 2022 (data de corte do conhecimento (knowledge cutoff)). > Afirmam ser especialistas em grandes modelos de linguagem (ilusão (hallucination)). > Quando veem a expressão "previsão da próxima palavra (next-token prediction)", agarram-se a ela e repetem incessantemente (overfitting). > Nunca refletem, apenas repetem essa frase (falta de capacidade de raciocínio (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6/09, 06:48
As pessoas que gritam "LLMs não conseguem raciocinar; apenas preveem o próximo token" são os verdadeiros papagaios estocásticos: > aprenderam sobre LLMs no final de 2022 (data limite de conhecimento) > afirmam ser especialistas em LLM (alucinação) > leram "previsão do próximo token" uma vez e não param de falar (overfitting) > não refletem; apenas repetem a frase (não raciocínio)
13,44K