Ogni singola volta che un LLM allucina, sono grato: Grato di averlo notato, e quindi mi ricordo che ogni output di LLM deve essere convalidato. Non puoi mai fidarti di queste cose al 100%, a meno che tu non abbia una convalida aggiuntiva che sia 100% affidabile.
Un esempio recente: ho incollato un testo molto lungo in Claude e gli ho chiesto di identificare le parti duplicate che possono essere rimosse, mostrando citazioni esatte. Ha allucinato parti, con citazioni, che non esistono nemmeno in nessun input!
9,72K