En tant qu'investisseur consommateur depuis une décennie, l'une de mes convictions les plus fortes est que les utilisateurs manipuleront les produits pour obtenir ce qu'ils veulent. Les utilisateurs qui veulent un flatteur façonneront ChatGPT en un - et les utilisateurs qui veulent une voix équilibrée feront de même. S'ils ne peuvent pas, ils passeront à une autre application.
Sam Altman
Sam Altmanil y a 14 heures
Si vous avez suivi le déploiement de GPT-5, une chose que vous pourriez remarquer est à quel point certaines personnes ont un attachement à des modèles d'IA spécifiques. Cela semble différent et plus fort que les types d'attachement que les gens avaient pour les anciennes technologies (et donc, déprécier soudainement les anciens modèles sur lesquels les utilisateurs comptaient dans leurs flux de travail était une erreur). C'est quelque chose que nous suivons de près depuis environ un an, mais qui n'a pas encore reçu beaucoup d'attention dans les médias (à part lorsque nous avons publié une mise à jour de GPT-4o qui était trop sycophante). (Ceci n'est que ma réflexion actuelle, et pas encore une position officielle d'OpenAI.) Les gens ont utilisé la technologie, y compris l'IA, de manière autodestructrice ; si un utilisateur est dans un état mental fragile et sujet à la délires, nous ne voulons pas que l'IA renforce cela. La plupart des utilisateurs peuvent garder une ligne claire entre la réalité et la fiction ou le jeu de rôle, mais un petit pourcentage ne le peut pas. Nous valorisons la liberté des utilisateurs comme un principe fondamental, mais nous nous sentons également responsables de la manière dont nous introduisons de nouvelles technologies avec de nouveaux risques. Encourager le délire chez un utilisateur qui a du mal à faire la différence entre la réalité et la fiction est un cas extrême et il est assez clair ce qu'il faut faire, mais les préoccupations qui m'inquiètent le plus sont plus subtiles. Il y aura beaucoup de cas limites, et en général, nous prévoyons de suivre le principe de "traiter les utilisateurs adultes comme des adultes", ce qui dans certains cas inclura de repousser les utilisateurs pour s'assurer qu'ils obtiennent ce qu'ils veulent vraiment. Beaucoup de gens utilisent effectivement ChatGPT comme une sorte de thérapeute ou de coach de vie, même s'ils ne le décriraient pas de cette manière. Cela peut être vraiment bon ! Beaucoup de gens en tirent déjà de la valeur aujourd'hui. Si les gens reçoivent de bons conseils, progressent vers leurs propres objectifs, et que leur satisfaction de vie augmente au fil des ans, nous serons fiers d'avoir créé quelque chose de véritablement utile, même s'ils utilisent et comptent beaucoup sur ChatGPT. Si, en revanche, les utilisateurs ont une relation avec ChatGPT où ils pensent se sentir mieux après avoir parlé mais qu'ils sont involontairement éloignés de leur bien-être à long terme (quel que soit leur définition), c'est mauvais. C'est aussi mauvais, par exemple, si un utilisateur veut utiliser moins ChatGPT et a l'impression qu'il ne le peut pas. Je peux imaginer un avenir où beaucoup de gens font vraiment confiance aux conseils de ChatGPT pour leurs décisions les plus importantes. Bien que cela puisse être formidable, cela me rend mal à l'aise. Mais je m'attends à ce que cela arrive dans une certaine mesure, et bientôt des milliards de personnes pourraient parler à une IA de cette manière. Donc, nous (nous en tant que société, mais aussi nous en tant qu'OpenAI) devons trouver comment en faire un grand bénéfice net. Il y a plusieurs raisons pour lesquelles je pense que nous avons une bonne chance de bien faire cela. Nous avons une technologie bien meilleure pour nous aider à mesurer nos performances que les générations précédentes de technologie. Par exemple, notre produit peut parler aux utilisateurs pour avoir une idée de la façon dont ils avancent dans leurs objectifs à court et à long terme, nous pouvons expliquer des problèmes sophistiqués et nuancés à nos modèles, et bien plus encore.
C'est agréable d'imaginer que ChatGPT peut aider les gens à devenir des optimisateurs à long terme plutôt qu'à court terme - j'aimerais y croire, mais je ne suis pas sûr que ce soit le cas ! Écoutez le podcast @a16z cette semaine pour entendre @venturetwins et moi en discuter davantage 👀
24,31K