Dieser Tweet ist einfach zu lustig: Diejenigen, die ständig wiederholen, dass "große Sprachmodelle (LLM) nicht schlussfolgern können, sondern nur das nächste Token vorhersagen", sind tatsächlich die wahren "zufälligen Papageien": > Ihr Verständnis von großen Sprachmodellen bleibt auf dem Stand Ende 2022 (Wissenstopp (knowledge cutoff)). > Sie nennen sich selbst Experten für große Sprachmodelle (Halluzination (hallucination)). > Wenn sie den Begriff "Vorhersage des nächsten Tokens (next-token prediction)" hören, lassen sie ihn nicht los und wiederholen ihn ständig (Überanpassung (overfitting)). > Sie reflektieren nie, sondern wiederholen nur diesen Satz (Mangel an Schlussfolgerungsfähigkeit (non-reasoning)).
Flowers ☾ ❂
Flowers ☾ ❂6. Sept., 06:48
Menschen, die "LLMs können nicht denken; sie sagen nur das nächste Token voraus" rufen, sind die echten stochastischen Papageien: > haben Ende 2022 über LLMs gelernt (Wissenstand) > behaupten, LLM-Experten zu sein (Halluzination) > haben einmal "nächste-Token-Vorhersage" gelesen und hören nicht auf zu reden (Überanpassung) > reflektieren nicht; wiederholen nur die Aussage (kein Denken)
17,98K