O tweet original é muito engraçado: Aqueles que dizem todos os dias que "grandes modelos de linguagem (LLMs) não podem raciocinar, eles só podem prever o próximo token" são os verdadeiros "papagaios aleatórios": > percepção de grandes modelos de linguagem permaneceu no final de 2022 (corte de conhecimento). > Afirma ser um grande especialista em modelos de linguagem (alucinação). > vê o termo "previsão do próximo token" e o mantém e o repete (sobreajuste). > Nunca reflita, apenas repita a frase (falta de raciocínio).
Flowers ☾ ❂
Flowers ☾ ❂6 de set., 06:48
Pessoas que cantam "LLMs não podem raciocinar; eles apenas preveem o próximo token" são os verdadeiros papagaios estocásticos: > aprendeu sobre LLMs no final de 2022 (corte de conhecimento) > afirma ser um especialista em LLM (alucinação) > lê "previsão do próximo token" uma vez e não cala a boca (sobreajuste) > não reflete; apenas repete a linha (não raciocinante)
17,64K