Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Deze tweet is te grappig:
Diegenen die elke dag herhalen dat "grote taalmodellen (LLM) niet kunnen redeneren, maar alleen het volgende token voorspellen", zijn zelf de echte "willekeurige papegaaien":
> Hun begrip van grote taalmodellen is blijven steken in eind 2022 (kennisafkap (knowledge cutoff)).
> Ze noemen zichzelf experts in grote taalmodellen (hallucinatie (hallucination)).
> Zodra ze de term "volgende-token voorspelling (next-token prediction)" horen, blijven ze eraan vastklampen en herhalen het steeds weer (overfitting).
> Ze reflecteren nooit, maar herhalen alleen deze zin (gebrek aan redeneringsvermogen (non-reasoning)).


6 sep, 06:48
Mensen die roepen "LLM's kunnen niet redeneren; ze voorspellen gewoon de volgende token" zijn de echte stochastische papegaaien:
> leerde over LLM's eind 2022 (kennisafkap)
> beweert een LLM-expert te zijn (hallucinatie)
> las "volgende-token voorspelling" één keer en houdt niet op met praten (overfitting)
> reflecteert niet; herhaalt gewoon de zin (niet-redenerend)
17,98K
Boven
Positie
Favorieten