Ich dachte, dieser Beitrag sei Satire, als ich ihn las. Ich benutze Claude Code bis zu 8 Stunden am Tag und musste einen benutzerdefinierten Befehl in Flashbacker erstellen, der hallucination-hunter heißt und im Wesentlichen sagt: "Finde allen falschen Code, den du in den letzten Stunden implementiert hast, der nichts tut, vorgibt, Dinge zu tun, versucht, magische Dinge zu tun usw." Ich muss ihn sowohl für Claude 4 Sonnet als auch für Opus und GPT-5 und Qwen-Coder verwenden. Nur weil die Leute nicht darüber reden, bedeutet das nicht, dass es ein gelöstes Problem ist. Ein benchmaxed Modell, das vorgibt, Halluzinationen bei Informationen/Fakten zu lösen, bedeutet nicht, dass es dies bei tatsächlichen Implementierungen von realen Problemen löst. Die Leute haben aufgehört, darüber zu reden, weil die Menschen schnell gelangweilt sind und gerne über das nächste glänzende, beängstigende Ding sprechen, um sie wütend/ängstlich/besorgt zu halten.
Matt Turck
Matt Turck29. Aug., 06:41
Es ist bemerkenswert, dass AI-Halluzinationen von dem größten Thema vor etwa einem Jahr zu einem weitgehend behobenen Problem geworden sind, über das die Leute heute kaum noch sprechen.
26,7K