Varje gång en LLM hallucinerar är jag tacksam: Tacksam för att jag upptäckte det, och därmed påminna mig själv om att alla LLM-utdata måste valideras. Du kan aldrig lita på dessa saker till 100 %, såvida du inte har ytterligare validering på plats som är 100 % tillförlitlig.
Ett färskt exempel: Jag klistrade in mycket lång text i Claude och bad den att identifiera dubbletter av delar som kan tas bort, med exakta citat. Den hallucinerade delar, med citat, som inte ens finns i någon input!
10,36K