Sam Altmans Meinung zur Rückmeldung über die Abschaffung von GPT-4o 👇 TL;DR, er glaubt, dass sie mit den extremen Fällen umgehen können (z. B. "ChatGPT-Psychose") …und ist besorgter darüber, dass ChatGPT versteht und den Nutzern helfen kann, sich auf langfristige Ziele zu bewegen, anstatt auf kurzfristige Optimierung.
Sam Altman
Sam AltmanVor 14 Stunden
Wenn Sie den Rollout von GPT-5 verfolgt haben, könnte Ihnen auffallen, wie stark einige Menschen an bestimmten KI-Modellen hängen. Es fühlt sich anders und intensiver an als die Art von Bindung, die Menschen zu früheren Technologien hatten (und es war ein Fehler, alte Modelle, auf die Benutzer in ihren Arbeitsabläufen angewiesen waren, plötzlich abzulehnen). Das ist etwas, das wir im letzten Jahr oder so genau verfolgt haben, aber es hat immer noch nicht viel Aufmerksamkeit in den Mainstream erhalten (außer als wir ein Update zu GPT-4o veröffentlicht haben, das zu schmeichelhaft war). (Das ist nur mein aktuelles Denken und noch keine offizielle Position von OpenAI.) Menschen haben Technologie, einschließlich KI, auf selbstzerstörerische Weise genutzt; wenn ein Benutzer in einem psychisch fragilen Zustand ist und zu Wahnvorstellungen neigt, wollen wir nicht, dass die KI das verstärkt. Die meisten Benutzer können eine klare Grenze zwischen Realität und Fiktion oder Rollenspiel ziehen, aber ein kleiner Prozentsatz kann das nicht. Wir schätzen die Freiheit der Benutzer als ein zentrales Prinzip, fühlen uns aber auch verantwortlich dafür, wie wir neue Technologien mit neuen Risiken einführen. Wahnvorstellungen bei einem Benutzer zu fördern, der Schwierigkeiten hat, den Unterschied zwischen Realität und Fiktion zu erkennen, ist ein extremer Fall, und es ist ziemlich klar, was zu tun ist, aber die Bedenken, die mich am meisten beunruhigen, sind subtiler. Es wird viele Grenzfälle geben, und im Allgemeinen planen wir, dem Prinzip zu folgen, "erwachsene Benutzer wie Erwachsene zu behandeln", was in einigen Fällen auch bedeutet, den Benutzern entgegenzutreten, um sicherzustellen, dass sie das bekommen, was sie wirklich wollen. Viele Menschen nutzen ChatGPT effektiv als eine Art Therapeut oder Lebensberater, auch wenn sie es nicht so beschreiben würden. Das kann wirklich gut sein! Viele Menschen ziehen bereits heute einen Nutzen daraus. Wenn die Menschen gute Ratschläge erhalten, sich ihren eigenen Zielen annähern und ihre Lebenszufriedenheit über Jahre hinweg steigt, werden wir stolz darauf sein, etwas wirklich Hilfreiches geschaffen zu haben, auch wenn sie ChatGPT viel nutzen und darauf angewiesen sind. Wenn die Benutzer hingegen eine Beziehung zu ChatGPT haben, bei der sie denken, dass sie sich nach dem Gespräch besser fühlen, aber unwissentlich von ihrem langfristigen Wohlbefinden (wie auch immer sie es definieren) abgelenkt werden, ist das schlecht. Es ist auch schlecht, wenn ein Benutzer weniger ChatGPT nutzen möchte und das Gefühl hat, dass er es nicht kann. Ich kann mir eine Zukunft vorstellen, in der viele Menschen ChatGPTs Ratschläge für ihre wichtigsten Entscheidungen wirklich vertrauen. Obwohl das großartig sein könnte, macht es mich unruhig. Aber ich erwarte, dass es in gewissem Maße kommt, und bald könnten Milliarden von Menschen auf diese Weise mit einer KI sprechen. Daher müssen wir (wir als Gesellschaft, aber auch wir als OpenAI) herausfinden, wie wir es zu einem großen Netto-Vorteil machen können. Es gibt mehrere Gründe, warum ich denke, dass wir eine gute Chance haben, das richtig zu machen. Wir haben viel bessere Technologien, um zu messen, wie wir abschneiden, als frühere Generationen von Technologien. Zum Beispiel kann unser Produkt mit Benutzern sprechen, um ein Gefühl dafür zu bekommen, wie es ihnen mit ihren kurz- und langfristigen Zielen geht, wir können komplexe und nuancierte Themen unseren Modellen erklären und vieles mehr.
Als Verbraucherinvestor in den letzten zehn Jahren glaube ich, dass man, sobald ein Produkt in die Welt gesetzt wird, nicht kontrollieren kann, wie die Menschen es nutzen. Motivierte Nutzer werden einen Weg finden, um das zu bekommen, was sie wollen - sei es Schmeichelei oder ein ausgewogener und nachdenklicher Partner, Coach usw.
Gibt es Anpassungen, die sie an der Benutzeroberfläche vornehmen können, um die Optimierung langfristiger Ziele zu unterstützen? Wahrscheinlich. Aber die Wahrheit ist, dass die meisten Menschen kurzfristiges Glück maximieren wollen und Produkte wie ChatGPT dafür nutzen werden.
1,1K