Deze tweet is te grappig: Diegenen die elke dag herhalen dat "grote taalmodellen (LLM) niet kunnen redeneren, maar alleen het volgende token voorspellen", zijn zelf de echte "willekeurige papegaaien": > Hun begrip van grote taalmodellen is blijven steken in eind 2022 (kennisafkap (knowledge cutoff)). > Ze noemen zichzelf experts in grote taalmodellen (hallucinatie (hallucination)). > Zodra ze de term "volgende-token voorspelling (next-token prediction)" horen, blijven ze eraan vastklampen en herhalen het steeds weer (overfitting). > Ze reflecteren nooit, maar herhalen alleen deze zin (gebrek aan redeneringsvermogen (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6 sep, 06:48
Mensen die roepen "LLM's kunnen niet redeneren; ze voorspellen gewoon de volgende token" zijn de echte stochastische papegaaien: > leerde over LLM's eind 2022 (kennisafkap) > beweert een LLM-expert te zijn (hallucinatie) > las "volgende-token voorspelling" één keer en houdt niet op met praten (overfitting) > reflecteert niet; herhaalt gewoon de zin (niet-redenerend)
17,98K