Den ursprungliga tweeten är för rolig: De som varje dag säger att "stora språkmodeller (LLM) inte kan resonera, de kan bara förutsäga nästa token" är de verkliga "slumpmässiga papegojorna": > uppfattning om stora språkmodeller stannade kvar i slutet av 2022 (kunskapsavbrott). > Påstår sig vara en stor expert på språkmodeller (hallucinationer). > ser termen "next-token prediction" och håller fast vid den och upprepar den (overfitting). > Reflektera aldrig, upprepa bara meningen (brist på resonemang).
Flowers ☾ ❂
Flowers ☾ ❂6 sep. 06:48
Människor som skanderar "LLM:er kan inte resonera; de förutsäger bara nästa token" är de verkliga stokastiska papegojorna: > lärde mig om LLM i slutet av 2022 (kunskapsavbrott) > påstår sig vara en LLM-expert (hallucinationer) > läsa "next-token prediction" en gång och kommer inte att hålla käften (överanpassning) > reflekterar inte; upprepar bara raden (icke-resonemang)
17,65K