Il parere di Sam Altman sulla reazione alla deprecazione di GPT-4o 👇 In sintesi, ritiene che possano gestire i casi estremi (es. "psicosi da ChatGPT") ...ed è più preoccupato che ChatGPT comprenda e possa aiutare gli utenti a muoversi verso obiettivi a lungo termine piuttosto che verso l'ottimizzazione a breve termine.
Sam Altman
Sam Altman12 ore fa
Se hai seguito il lancio di GPT-5, una cosa che potresti notare è quanto alcune persone siano attaccate a modelli AI specifici. Sembra diverso e più forte rispetto ai tipi di attaccamento che le persone hanno avuto nei confronti delle tecnologie precedenti (e quindi deprezzare improvvisamente i vecchi modelli su cui gli utenti facevano affidamento nei loro flussi di lavoro è stato un errore). Questo è qualcosa che abbiamo monitorato da vicino nell'ultimo anno circa, ma che non ha ancora ricevuto molta attenzione mainstream (a parte quando abbiamo rilasciato un aggiornamento per GPT-4o che era troppo servile). (Questo è solo il mio attuale pensiero e non ancora una posizione ufficiale di OpenAI.) Le persone hanno usato la tecnologia, compresa l'AI, in modi autodistruttivi; se un utente si trova in uno stato mentale fragile e incline all'illusione, non vogliamo che l'AI lo rafforzi. La maggior parte degli utenti riesce a mantenere una linea chiara tra realtà e finzione o gioco di ruolo, ma una piccola percentuale non può. Valutiamo la libertà degli utenti come un principio fondamentale, ma ci sentiamo anche responsabili nel modo in cui introduciamo nuove tecnologie con nuovi rischi. Incoraggiare l'illusione in un utente che ha difficoltà a distinguere tra realtà e finzione è un caso estremo e è abbastanza chiaro cosa fare, ma le preoccupazioni che mi preoccupano di più sono più sottili. Ci saranno molti casi limite e, in generale, pianifichiamo di seguire il principio di "trattare gli utenti adulti come adulti", il che in alcuni casi includerà il respingere gli utenti per garantire che stiano ottenendo ciò che vogliono davvero. Molte persone usano effettivamente ChatGPT come una sorta di terapeuta o coach della vita, anche se non lo descriverebbero in questo modo. Questo può essere davvero positivo! Molte persone stanno già estraendo valore da esso oggi. Se le persone ricevono buoni consigli, progredendo verso i propri obiettivi e la loro soddisfazione nella vita aumenta nel corso degli anni, saremo orgogliosi di aver creato qualcosa di genuinamente utile, anche se lo usano e si affidano molto a ChatGPT. Se, d'altra parte, gli utenti hanno una relazione con ChatGPT in cui pensano di sentirsi meglio dopo aver parlato, ma vengono inconsapevolmente allontanati dal loro benessere a lungo termine (come lo definiscono), è negativo. È anche negativo, ad esempio, se un utente desidera usare meno ChatGPT e sente di non poterlo fare. Posso immaginare un futuro in cui molte persone si fidano davvero dei consigli di ChatGPT per le loro decisioni più importanti. Anche se potrebbe essere fantastico, mi rende inquieto. Ma mi aspetto che stia arrivando in qualche misura, e presto miliardi di persone potrebbero parlare con un'AI in questo modo. Quindi noi (noi come società, ma anche noi come OpenAI) dobbiamo capire come farne un grande vantaggio netto. Ci sono diverse ragioni per cui penso che abbiamo buone possibilità di farcela. Abbiamo una tecnologia molto migliore per aiutarci a misurare come stiamo andando rispetto alle generazioni precedenti di tecnologia. Ad esempio, il nostro prodotto può parlare con gli utenti per avere un'idea di come stanno andando con i loro obiettivi a breve e lungo termine, possiamo spiegare questioni sofisticate e sfumate ai nostri modelli, e molto altro.
Come investitore consumatore negli ultimi dieci anni, credo che una volta che un prodotto viene rilasciato nel mondo, non puoi controllare come le persone lo usano. Gli utenti motivati troveranno un modo per ottenere ciò che vogliono - sia che si tratti di adulazione o di un partner, coach, ecc. equilibrato e riflessivo.
Ci sono modifiche che possono apportare all'interfaccia utente per aiutare con l'ottimizzazione degli obiettivi a lungo termine? Probabilmente. Ma la verità è che la maggior parte delle persone vuole massimizzare la felicità a breve termine e utilizzerà prodotti come ChatGPT per farlo.
1,09K