Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dieser Tweet ist einfach zu lustig:
Diejenigen, die ständig wiederholen, dass "große Sprachmodelle (LLM) nicht schlussfolgern können, sondern nur das nächste Token vorhersagen", sind tatsächlich die wahren "zufälligen Papageien":
> Ihr Verständnis von großen Sprachmodellen bleibt auf dem Stand Ende 2022 (Wissenstopp (knowledge cutoff)).
> Sie nennen sich selbst Experten für große Sprachmodelle (Halluzination (hallucination)).
> Wenn sie den Begriff "Vorhersage des nächsten Tokens (next-token prediction)" hören, lassen sie ihn nicht los und wiederholen ihn ständig (Überanpassung (overfitting)).
> Sie reflektieren nie, sondern wiederholen nur diesen Satz (Mangel an Schlussfolgerungsfähigkeit (non-reasoning)).


6. Sept., 06:48
Menschen, die "LLMs können nicht denken; sie sagen nur das nächste Token voraus" rufen, sind die echten stochastischen Papageien:
> haben Ende 2022 über LLMs gelernt (Wissenstand)
> behaupten, LLM-Experten zu sein (Halluzination)
> haben einmal "nächste-Token-Vorhersage" gelesen und hören nicht auf zu reden (Überanpassung)
> reflektieren nicht; wiederholen nur die Aussage (kein Denken)
17,98K
Top
Ranking
Favoriten