Questo post è davvero divertente: Coloro che ripetono ogni giorno che "i modelli di linguaggio di grandi dimensioni (LLM) non possono ragionare, possono solo prevedere il prossimo token" sono in realtà i veri "pappagalli casuali": > La loro comprensione dei modelli di linguaggio di grandi dimensioni si è fermata alla fine del 2022 (data di conoscenza (knowledge cutoff)). > Si definiscono esperti di modelli di linguaggio di grandi dimensioni (allucinazione (hallucination)). > Appena vedono l'espressione "previsione del prossimo token (next-token prediction)" non la lasciano andare, ripetendola incessantemente (overfitting). > Non riflettono mai, si limitano a ripetere questa frase (mancanza di capacità di ragionamento (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6 set, 06:48
Le persone che cantano "LLM non possono ragionare; prevedono solo il prossimo token" sono i veri pappagalli stocastici: > hanno appreso degli LLM alla fine del 2022 (data di taglio della conoscenza) > affermano di essere esperti di LLM (allucinazione) > hanno letto "previsione del prossimo token" una volta e non smettono di parlarne (overfitting) > non riflettono; ripetono solo la frase (non ragionamento)
17,64K