Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
To jest zbyt zabawne:
Ci, którzy codziennie powtarzają, że „duże modele językowe (LLM) nie potrafią wnioskować, tylko przewidują następny token”, sami są prawdziwymi „losowymi papugami”:
> Ich zrozumienie dużych modeli językowych zatrzymało się na końcu 2022 roku (data zakończenia wiedzy (knowledge cutoff)).
> Uważają się za ekspertów w dziedzinie dużych modeli językowych (halucynacje (hallucination)).
> Gdy tylko zobaczą termin „przewidywanie następnego tokena (next-token prediction)”, chwytają się go i powtarzają (przeuczenie (overfitting)).
> Nigdy nie reflektują, tylko powtarzają tę frazę (brak zdolności do wnioskowania (non-reasoning)).


6 wrz, 06:48
Ludzie, którzy powtarzają „LLM-y nie potrafią rozumować; po prostu przewidują następny token”, to prawdziwe stochastyczne papugi:
> dowiedzieli się o LLM-ach pod koniec 2022 roku (data graniczna wiedzy)
> twierdzą, że są ekspertami od LLM-ów (halucynacja)
> przeczytali „przewidywanie następnego tokena” raz i nie przestają gadać (przeuczenie)
> nie reflektują; po prostu powtarzają tę frazę (brak rozumowania)
17,64K
Najlepsze
Ranking
Ulubione