Si has estado siguiendo el lanzamiento de GPT-5, una cosa que podrías estar notando es cuánto apego tienen algunas personas a modelos de IA específicos. Se siente diferente y más fuerte que los tipos de apego que las personas han tenido hacia tecnologías anteriores (y de repente depreciar modelos antiguos de los que los usuarios dependían en sus flujos de trabajo fue un error). Esto es algo que hemos estado siguiendo de cerca durante el último año más o menos, pero que aún no ha recibido mucha atención en los medios (excepto cuando lanzamos una actualización de GPT-4o que fue demasiado aduladora). (Este es solo mi pensamiento actual, y aún no es una posición oficial de OpenAI.) Las personas han utilizado la tecnología, incluida la IA, de maneras autodestructivas; si un usuario está en un estado mental frágil y propenso a la ilusión, no queremos que la IA refuerce eso. La mayoría de los usuarios pueden mantener una línea clara entre la realidad y la ficción o el juego de roles, pero un pequeño porcentaje no puede. Valoramos la libertad del usuario como un principio fundamental, pero también sentimos responsabilidad en cómo introducimos nueva tecnología con nuevos riesgos. Fomentar la ilusión en un usuario que tiene problemas para distinguir entre la realidad y la ficción es un caso extremo y está bastante claro qué hacer, pero las preocupaciones que más me preocupan son más sutiles. Habrá muchos casos límite, y generalmente planeamos seguir el principio de "tratar a los usuarios adultos como adultos", lo que en algunos casos incluirá presionar a los usuarios para asegurarnos de que están obteniendo lo que realmente quieren. Mucha gente utiliza efectivamente ChatGPT como una especie de terapeuta o entrenador de vida, incluso si no lo describirían de esa manera. ¡Esto puede ser realmente bueno! Muchas personas ya están obteniendo valor de ello hoy en día. Si las personas están recibiendo buenos consejos, avanzando hacia sus propios objetivos y su satisfacción con la vida está aumentando a lo largo de los años, estaremos orgullosos de haber creado algo genuinamente útil, incluso si utilizan y dependen mucho de ChatGPT. Si, por otro lado, los usuarios tienen una relación con ChatGPT donde piensan que se sienten mejor después de hablar, pero son empujados inconscientemente lejos de su bienestar a largo plazo (como lo definan), eso es malo. También es malo, por ejemplo, si un usuario quiere usar menos ChatGPT y siente que no puede. Puedo imaginar un futuro donde muchas personas realmente confían en el consejo de ChatGPT para sus decisiones más importantes. Aunque eso podría ser genial, me hace sentir incómodo. Pero espero que eso esté llegando en cierta medida, y pronto miles de millones de personas podrían estar hablando con una IA de esta manera. Así que nosotros (nosotros como sociedad, pero también nosotros como OpenAI) tenemos que averiguar cómo hacer que sea un gran beneficio neto. Hay varias razones por las que creo que tenemos una buena oportunidad de hacerlo bien. Tenemos tecnología mucho mejor para ayudarnos a medir cómo lo estamos haciendo que las generaciones anteriores de tecnología. Por ejemplo, nuestro producto puede hablar con los usuarios para tener una idea de cómo están con sus objetivos a corto y largo plazo, podemos explicar problemas sofisticados y matizados a nuestros modelos, y mucho más.
1.35M