Jedes Mal, wenn ein LLM halluziniert, bin ich dankbar: Dankbar, dass ich es bemerkt habe, und erinnere mich daran, dass alle Ausgaben von LLM validiert werden müssen. Man kann diesen Dingen niemals zu 100 % vertrauen, es sei denn, man hat zusätzliche Validierungen, die zu 100 % zuverlässig sind.
Ein aktuelles Beispiel: Ich habe sehr langen Text in Claude eingefügt und ihn gebeten, doppelte Teile zu identifizieren, die entfernt werden können, und genaue Zitate anzuzeigen. Es hat Teile halluziniert, mit Zitaten, die nicht einmal in irgendeinem Input existieren!
8,75K