Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ce passage est vraiment drôle :
Ceux qui répètent sans cesse que "les grands modèles de langage (LLM) ne peuvent pas raisonner, ils ne font que prédire le prochain mot (Token)" sont eux-mêmes de véritables "perroquets aléatoires" :
> Leur compréhension des grands modèles de langage s'arrête à la fin de 2022 (date de coupure des connaissances (knowledge cutoff)).
> Ils se prétendent experts en grands modèles de langage (hallucination (hallucination)).
> Ils s'accrochent à l'expression "prédiction du prochain mot (next-token prediction)" et la répètent sans cesse (surapprentissage (overfitting)).
> Ils ne réfléchissent jamais, se contentent de répéter cette phrase (manque de capacité de raisonnement (non-reasoning)).


6 sept., 06:48
Les personnes qui chantent "Les LLM ne peuvent pas raisonner ; ils prédisent juste le prochain jeton" sont les véritables perroquets stochastiques :
> ont appris sur les LLM fin 2022 (date limite de connaissance)
> prétendent être des experts en LLM (hallucination)
> ont lu "prédiction du prochain jeton" une fois et ne s'arrêtent pas (surapprentissage)
> ne réfléchissent pas ; répètent juste la phrase (non-raisonnement)
17,64K
Meilleurs
Classement
Favoris