Ce passage est vraiment drôle : Ceux qui répètent sans cesse que "les grands modèles de langage (LLM) ne peuvent pas raisonner, ils ne font que prédire le prochain mot (Token)" sont eux-mêmes de véritables "perroquets aléatoires" : > Leur compréhension des grands modèles de langage s'arrête à la fin de 2022 (date de coupure des connaissances (knowledge cutoff)). > Ils se prétendent experts en grands modèles de langage (hallucination (hallucination)). > Ils s'accrochent à l'expression "prédiction du prochain mot (next-token prediction)" et la répètent sans cesse (surapprentissage (overfitting)). > Ils ne réfléchissent jamais, se contentent de répéter cette phrase (manque de capacité de raisonnement (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6 sept., 06:48
Les personnes qui chantent "Les LLM ne peuvent pas raisonner ; ils prédisent juste le prochain jeton" sont les véritables perroquets stochastiques : > ont appris sur les LLM fin 2022 (date limite de connaissance) > prétendent être des experts en LLM (hallucination) > ont lu "prédiction du prochain jeton" une fois et ne s'arrêtent pas (surapprentissage) > ne réfléchissent pas ; répètent juste la phrase (non-raisonnement)
17,64K