أخذ سام ألتمان على رد الفعل 👇 العنيف لإهمال GPT-4o TL. دكتور ، يشعر أنهم يستطيعون التعامل مع الحالات القصوى (على سبيل المثال "ذهان ChatGPT") … وأكثر قلقا من أن ChatGPT يفهم + يمكن أن يساعد المستخدمين على التحرك نحو أهداف طويلة المدى مقابل التحسين قصير المدى
Sam Altman
Sam Altmanمنذ 12 ساعةً
إذا كنت تتابع طرح GPT-5 ، فإن الشيء الوحيد الذي قد تلاحظه هو مقدار الارتباط الذي يمتلكه بعض الأشخاص بنماذج الذكاء الاصطناعي المحددة. يبدو الأمر مختلفا وأقوى من أنواع الارتباط الذي كان لدى الأشخاص بأنواع التكنولوجيا السابقة (ولذا فإن إهمال النماذج القديمة التي اعتمد عليها المستخدمون في سير عملهم كان خطأ). هذا شيء كنا نتابعه عن كثب خلال العام الماضي أو نحو ذلك ولكننا لم نحظ بعد باهتمام كبير (بخلاف الوقت الذي أصدرنا فيه تحديثا ل GPT-4o كان متملقا للغاية). (هذا مجرد تفكيري الحالي ، وليس منصبا رسميا في OpenAI.) استخدم الناس التكنولوجيا بما في ذلك الذكاء الاصطناعي بطرق تدمير ذاتي. إذا كان المستخدم في حالة هشة عقليا وعرضة للوهم ، فنحن لا نريد أن يعزز الذكاء الاصطناعي ذلك. يمكن لمعظم المستخدمين الحفاظ على خط واضح بين الواقع والخيال أو لعب الأدوار ، لكن نسبة صغيرة لا تستطيع ذلك. نحن نقدر حرية المستخدم كمبدأ أساسي ، لكننا نشعر أيضا بالمسؤولية في كيفية تقديم تقنية جديدة ذات مخاطر جديدة. إن تشجيع الوهم لدى المستخدم الذي يواجه مشكلة في معرفة الفرق بين الواقع والخيال هو حالة متطرفة ومن الواضح جدا ما يجب فعله ، لكن المخاوف التي تقلقني أكثر دقة. سيكون هناك الكثير من الحالات المتطورة ، وبشكل عام نخطط لاتباع مبدأ "معاملة المستخدمين البالغين مثل البالغين" ، والذي سيشمل في بعض الحالات دفع المستخدمين لضمان حصولهم على ما يريدون حقا. يستخدم الكثير من الأشخاص ChatGPT بشكل فعال كنوع من المعالج أو مدرب الحياة ، حتى لو لم يصفوه بهذه الطريقة. يمكن أن يكون هذا جيدا حقا! الكثير من الناس يحصلون على قيمة منه بالفعل اليوم. إذا كان الناس يتلقون نصيحة جيدة ، ويتقدمون نحو أهدافهم الخاصة ، ويتزايد رضاهم عن الحياة على مر السنين ، فسنكون فخورين بصنع شيء مفيد حقا ، حتى لو كانوا يستخدمون ChatGPT ويعتمدون عليه كثيرا. من ناحية أخرى ، إذا كان لدى المستخدمين علاقة مع ChatGPT حيث يعتقدون أنهم يشعرون بتحسن بعد التحدث ولكنهم يدفعون عن غير قصد بعيدا عن رفاهيتهم على المدى الطويل (كيفما يعرفوها) ، فهذا أمر سيء. إنه أمر سيء أيضا ، على سبيل المثال ، إذا أراد المستخدم استخدام ChatGPT بشكل أقل وشعر أنه لا يستطيع ذلك. أستطيع أن أتخيل مستقبلا يثق فيه الكثير من الناس حقا في نصيحة ChatGPT لأهم قراراتهم. على الرغم من أن هذا قد يكون رائعا ، إلا أنه يجعلني غير مرتاح. لكنني أتوقع أن الأمر سيصل إلى حد ما ، وقريبا قد يتحدث مليارات الأشخاص إلى الذكاء الاصطناعي بهذه الطريقة. لذلك علينا (نحن كما هو الحال في المجتمع ، ولكن أيضا كما هو الحال في OpenAI) معرفة كيفية جعلها شبكة إيجابية كبيرة. هناك عدة أسباب أعتقد أن لدينا فرصة جيدة لتصحيح ذلك. لدينا تقنية أفضل بكثير لمساعدتنا في قياس أدائنا مقارنة بالأجيال السابقة من التكنولوجيا. على سبيل المثال ، يمكن لمنتجنا التحدث إلى المستخدمين للتعرف على كيفية أدائهم مع أهدافهم قصيرة وطويلة المدى ، ويمكننا شرح القضايا المعقدة والدقيقة لنماذجنا ، وأكثر من ذلك بكثير.
بصفتي مستثمرا استهلاكيا على مدار العقد الماضي ، فأنا مؤمن بأنه بمجرد إصدار منتج ما في العالم ، لا يمكنك التحكم في كيفية استخدام الناس له سيجد المستخدمون المتحمسون طريقة للحصول على ما يريدون - سواء كان ذلك تملقا أو شريكا متوازنا ومدروسا ، أو مدربا ، وما إلى ذلك.
هل هناك تعديلات يمكنهم إجراؤها على واجهة المستخدم للمساعدة في تحسين الهدف على المدى الطويل؟ ربما. لكن الحقيقة هي أن معظم الناس يرغبون في تحقيق أقصى قدر من السعادة على المدى القصير ، وسيستخدمون منتجات مثل ChatGPT للقيام بذلك
‏‎1.1‏K