To jest zbyt zabawne: Ci, którzy codziennie powtarzają, że „duże modele językowe (LLM) nie potrafią wnioskować, tylko przewidują następny token”, sami są prawdziwymi „losowymi papugami”: > Ich zrozumienie dużych modeli językowych zatrzymało się na końcu 2022 roku (data zakończenia wiedzy (knowledge cutoff)). > Uważają się za ekspertów w dziedzinie dużych modeli językowych (halucynacje (hallucination)). > Gdy tylko zobaczą termin „przewidywanie następnego tokena (next-token prediction)”, chwytają się go i powtarzają (przeuczenie (overfitting)). > Nigdy nie reflektują, tylko powtarzają tę frazę (brak zdolności do wnioskowania (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6 wrz, 06:48
Ludzie, którzy powtarzają „LLM-y nie potrafią rozumować; po prostu przewidują następny token”, to prawdziwe stochastyczne papugi: > dowiedzieli się o LLM-ach pod koniec 2022 roku (data graniczna wiedzy) > twierdzą, że są ekspertami od LLM-ów (halucynacja) > przeczytali „przewidywanie następnego tokena” raz i nie przestają gadać (przeuczenie) > nie reflektują; po prostu powtarzają tę frazę (brak rozumowania)
17,64K