Pensavo che questo post fosse satira quando l'ho letto. Utilizzo Claude Code per un massimo di 8 ore al giorno e ho dovuto creare un comando personalizzato in Flashbacker chiamato hallucination-hunter che sostanzialmente dice "vai a trovare tutto il codice falso che hai implementato nelle ultime ore che non fa nulla, finge di fare cose, cerca di fare cose magiche, ecc." Devo usarlo sia per Claude 4 Sonnet che per Opus e GPT-5 e Qwen-Coder. Solo perché le persone non ne parlano non significa che sia un problema risolto. Un modello benchmaxed che pretende di risolvere le allucinazioni su informazioni/fatti non significa che risolva i problemi di implementazione nel mondo reale. Le persone hanno smesso di parlarne perché si annoiano facilmente e amano parlare della prossima cosa brillante e spaventosa per tenerli arrabbiati/spaventati/preoccupati.
Matt Turck
Matt Turck23 ore fa
È notevole che le allucinazioni dell'AI siano passate dal essere il tema principale solo un anno fa a un problema in gran parte risolto di cui le persone parlano a malapena oggi.
6,85K