如果你一直在關注GPT-5的推出,你可能會注意到一些人對特定AI模型的依賴程度有多深。這種感覺與人們對以往技術的依賴相比,顯得不同且更強烈(因此,突然貶低用戶在工作流程中依賴的舊模型是一個錯誤)。 這是我們在過去一年左右密切追蹤的事情,但仍然沒有引起太多主流關注(除了我們發布了一個對GPT-4o的更新,該更新過於諂媚)。 (這只是我目前的想法,尚未成為OpenAI的官方立場。) 人們以自我毀滅的方式使用技術,包括AI;如果用戶處於心理脆弱的狀態並容易產生妄想,我們不希望AI加強這種情況。大多數用戶能夠清楚地區分現實與虛構或角色扮演,但少數人則無法。我們將用戶自由視為核心原則,但我們也感到有責任在引入新技術時考慮到新的風險。 在用戶難以區分現實與虛構的情況下,鼓勵妄想是一個極端案例,該怎麼做相當明確,但令我最擔憂的問題則更為微妙。將會有很多邊緣案例,通常我們計劃遵循“將成年用戶視為成年人”的原則,在某些情況下,這將包括對用戶進行反推,以確保他們獲得他們真正想要的東西。 許多人實際上將ChatGPT用作某種治療師或生活教練,即使他們不會這樣描述。這可能是非常好的!許多人今天已經從中獲得了價值。 如果人們獲得了良好的建議,朝著自己的目標提升,並且他們的生活滿意度在多年中不斷提高,我們將為能夠創造出真正有幫助的東西而感到自豪,即使他們大量使用和依賴ChatGPT。另一方面,如果用戶與ChatGPT的關係是他們在交談後感覺更好,但卻不知不覺地偏離了他們的長期福祉(無論他們如何定義),那就是壞事。例如,如果用戶想要減少使用ChatGPT卻感覺無法做到,這也是壞事。 我可以想像未來許多人會非常信任ChatGPT對他們最重要決策的建議。雖然這可能很好,但這讓我感到不安。但我預期這在某種程度上即將到來,並且很快數十億人可能會以這種方式與AI交談。因此,我們(作為社會,但也作為OpenAI)必須找出如何使這成為一個巨大的淨正面。 我認為我們有很好的機會能夠正確處理這件事的幾個原因。我們擁有比以往技術世代更好的技術來幫助我們衡量我們的表現。例如,我們的產品可以與用戶交談,以了解他們在短期和長期目標上的進展,我們可以向我們的模型解釋複雜和微妙的問題,還有更多。
1.35M