Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Questo post è davvero divertente:
Coloro che ripetono ogni giorno che "i modelli di linguaggio di grandi dimensioni (LLM) non possono ragionare, possono solo prevedere il prossimo token" sono in realtà i veri "pappagalli casuali":
> La loro comprensione dei modelli di linguaggio di grandi dimensioni si è fermata alla fine del 2022 (data di conoscenza (knowledge cutoff)).
> Si definiscono esperti di modelli di linguaggio di grandi dimensioni (allucinazione (hallucination)).
> Appena vedono l'espressione "previsione del prossimo token (next-token prediction)" non la lasciano andare, ripetendola incessantemente (overfitting).
> Non riflettono mai, si limitano a ripetere questa frase (mancanza di capacità di ragionamento (non-reasoning)).


6 set, 06:48
Le persone che cantano "LLM non possono ragionare; prevedono solo il prossimo token" sono i veri pappagalli stocastici:
> hanno appreso degli LLM alla fine del 2022 (data di taglio della conoscenza)
> affermano di essere esperti di LLM (allucinazione)
> hanno letto "previsione del prossimo token" una volta e non smettono di parlarne (overfitting)
> non riflettono; ripetono solo la frase (non ragionamento)
17,64K
Principali
Ranking
Preferiti