Esta broma es demasiado divertida: Aquellos que repiten constantemente que "los grandes modelos de lenguaje (LLM) no pueden razonar, solo predicen la siguiente palabra (Token)" son en realidad los verdaderos "loros aleatorios": > Su comprensión de los grandes modelos de lenguaje se detiene a finales de 2022 (corte de conocimiento (knowledge cutoff)). > Se autodenominan expertos en grandes modelos de lenguaje (alucinación (hallucination)). > Al ver la expresión "predicción de la siguiente palabra (next-token prediction)" se aferran a ella y la repiten sin cesar (sobreajuste (overfitting)). > Nunca reflexionan, solo repiten esta frase (falta de capacidad de razonamiento (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6 sept, 06:48
Las personas que dicen "Los LLMs no pueden razonar; solo predicen el siguiente token" son los verdaderos loros estocásticos: > aprendieron sobre LLMs a finales de 2022 (corte de conocimiento) > afirman ser expertos en LLM (alucinación) > leyeron "predicción del siguiente token" una vez y no paran de hablar (sobreajuste) > no reflexionan; solo repiten la frase (no razonamiento)
17,65K