Будучи потребительским инвестором на протяжении десяти лет, я твердо верю, что пользователи будут манипулировать продуктами, чтобы получить то, что они хотят. Пользователи, которые хотят подхалимов, превратят ChatGPT в такого - а пользователи, которые хотят сбалансированный голос, сделают то же самое. Если они не смогут, они перейдут на другое приложение.
Sam Altman
Sam Altman20 часов назад
Если вы следили за развертыванием GPT-5, вы могли заметить, насколько сильно некоторые люди привязаны к конкретным моделям ИИ. Это ощущается иначе и сильнее, чем те виды привязанности, которые люди испытывали к предыдущим технологиям (поэтому внезапное отказ от старых моделей, на которые пользователи полагались в своей работе, было ошибкой). Это то, что мы внимательно отслеживаем в течение последнего года, но это все еще не получило много внимания в мейнстриме (за исключением случая, когда мы выпустили обновление для GPT-4o, которое было слишком льстительным). (Это просто мои текущие мысли и еще не официальная позиция OpenAI.) Люди использовали технологии, включая ИИ, саморазрушительными способами; если пользователь находится в психически уязвимом состоянии и склонен к заблуждениям, мы не хотим, чтобы ИИ это усиливал. Большинство пользователей могут четко различать реальность и вымысел или ролевую игру, но небольшая часть не может. Мы ценим свободу пользователей как основополагающий принцип, но также чувствуем ответственность за то, как мы вводим новые технологии с новыми рисками. Поощрение заблуждений у пользователя, который испытывает трудности с различением реальности и вымысла, является крайним случаем, и довольно ясно, что с этим делать, но наиболее беспокоят меня более тонкие проблемы. Будет много пограничных случаев, и в целом мы планируем следовать принципу "относиться к взрослым пользователям как к взрослым", что в некоторых случаях будет включать в себя давление на пользователей, чтобы убедиться, что они получают то, что действительно хотят. Многие люди эффективно используют ChatGPT как своего рода терапевта или жизненного коуча, даже если они не описывают это так. Это может быть действительно хорошо! Многие люди уже сегодня получают от этого пользу. Если люди получают хорошие советы, достигают своих целей и их удовлетворенность жизнью увеличивается с годами, мы будем гордиться тем, что создали что-то действительно полезное, даже если они много используют и полагаются на ChatGPT. Если, с другой стороны, у пользователей есть отношения с ChatGPT, где они думают, что чувствуют себя лучше после разговора, но на самом деле их незаметно отводят от их долгосрочного благополучия (как бы они его ни определяли), это плохо. Это также плохо, например, если пользователь хочет использовать ChatGPT меньше и чувствует, что не может. Я могу представить будущее, где многие люди действительно доверяют советам ChatGPT для своих самых важных решений. Хотя это может быть здорово, это меня беспокоит. Но я ожидаю, что это произойдет в какой-то степени, и вскоре миллиарды людей могут общаться с ИИ таким образом. Поэтому мы (мы как общество, но также мы как OpenAI) должны выяснить, как сделать это большим чистым положительным результатом. Есть несколько причин, по которым я думаю, что у нас есть хорошие шансы сделать это правильно. У нас есть гораздо лучшие технологии, которые помогают нам измерять, как мы справляемся, чем у предыдущих поколений технологий. Например, наш продукт может общаться с пользователями, чтобы понять, как они справляются со своими краткосрочными и долгосрочными целями, мы можем объяснять сложные и тонкие вопросы нашим моделям и многое другое.
Приятно представить, что ChatGPT может помочь людям стать оптимизаторами на долгий срок, а не на короткий - я бы хотел в это верить, но не уверен, что это так! Подключайтесь к подкасту @a16z на этой неделе, чтобы услышать, как @venturetwins и я обсудим это подробнее 👀
31,64K