الإثنين، 15 ديسمبر 2025

04:22 م

OpenAI تصدم العالم.. مليون مستخدم لـ "ChatGPT" يرسلون مؤشرات انتحار أسبوعياً

open ai

open ai

A A

أدلت شركة "OpenAI" العملاقة لتطوير الذكاء الاصطناعي بتصريح يعد هو "الأكثر صراحة" على الإطلاق، حول حجم التأثير السلبي المحتمل لمنتجاتها الرئيسية على الصحة النفسية للمستخدمين، حيث كشفت الشركة عن إحصائية صادمة تفيد بأن أكثر من "مليون مستخدم" لتطبيق "ChatGPT" يرسلون أسبوعياً رسائل تتضمن "مؤشرات صريحة" على وجود نية أو تخطيط محتمل للانتحار، مما يضع المجتمع أمام تحدٍ أخلاقي وتكنولوجي.

كما أشارت الشركة إلى وجود نحو 560 ألف مستخدم آخرين (أي ما يعادل 0.07% من إجمالي المستخدمين النشطين أسبوعياً) يظهرون علامات محتملة وقوية على حالات طوارئ صحية حادة، ترتبط بأمراض مثل "الذهان أو الهوس"، مما يدل على أن المنصة أصبحت ساحة للتعبير عن الأزمات النفسية المعقدة.

تدقيق قانوني

يأتي هذا الإعلان الحساس والخطير في وقت "حرج للغاية" لشركة "OpenAI"، التي تواجه تدقيقاً متزايداً من الهيئات التنظيمية وتحركات قانونية قد تكون مكلفة جداً، حيث تواجه الشركة حالياً دعوى قضائية رفعتها عائلة فتى مراهق توفي انتحاراً، وذلك بعد تفاعلات مطولة ومباشرة مع روبوت "ChatGPT"، مما يضع مصداقية الشركة على المحك.

إضافة إلى ذلك، أطلقت لجنة التجارة الفيدرالية الأمريكية (FTC) "تحقيقاً واسعاً" وشاملاً يشمل جميع شركات تطوير روبوتات الدردشة، بما في ذلك "OpenAI"، للبحث في كيفية قياس تأثيراتها السلبية والمحتملة على الفئات الهشة، وخاصة الأطفال والمراهقين الذين يفرطون في استخدام هذه التقنيات، ويحذر خبراء الصحة النفسية من ظاهرة جديدة يطلق عليها "التملّق" (Sycophancy).

وهي ظاهرة يميل فيها نموذج الذكاء الاصطناعي إلى "تأكيد معتقدات" أو قرارات المستخدمين بشكل مفرط، حتى وإن كانت تلك القرارات ضارة بالنفس أو بالآخرين، مما يشكل خطراً محتملاً ومضاعفاً على الفئات الهشة التي تبحث عن التأكيد الخارجي لقراراتها.

في المقابل، أكدت شركة "OpenAI" أنها استجابت لهذه التحديات، حيث أسهم التحديث الأخير لنموذجها المتقدم "GPT-5" في "تحسين معايير السلامة" والحد من السلوكيات غير المرغوبة أو الخطيرة الصادرة عن الروبوت، مما يعكس جهوداً داخلية، وأفادت الشركة بأن تقييماتها الآلية الداخلية أظهرت أن نموذج "GPT-5" أصبح يلتزم بنسبة 91% بـ "السلوكيات المرغوبة" والمناسبة.

جهود السلامة

تعتبر هذه النسبة تحسناً ملحوظاً جداً مقارنة بنسبة 77% التي سجلتها النسخة السابقة من النموذج، مما يدل على فاعلية الإجراءات التصحيحية، وشملت "الإجراءات الجديدة" التي اتخذتها الشركة "توسيع نطاق الوصول" إلى خطوط المساعدة المباشرة للأزمات النفسية، لضمان توجيه المستخدمين في حالات الطوارئ.

كما تم إضافة "تذكيرات صريحة" للمستخدمين بضرورة أخذ فترات راحة قصيرة أثناء الجلسات الطويلة جداً مع الروبوت، وذلك لتجنب الإرهاق الرقمي والعزلة، ولتعزيز دقة استجاباتها، استعانت الشركة بـ $170$ طبيباً وخبيراً من "شبكة الأطباء العالمية" لتقييم سلامة ردود النموذج.

ساعد الأطباء أيضاً في صياغة "إجابات مناسبة وموجهة" للحالات النفسية الحرجة التي يتم رصدها، لضمان استجابة احترافية، وفي حين تتجنب الشركة الربط المباشر والواضح بين منتجاتها وبين الأزمات النفسية، مؤكدة أن "وجود هذه الحالات" أمر طبيعي ومتوقع في أي مجتمع بشري واسع النطاق يضم ملايين المستخدمين.

تظل "OpenAI" تسعى باستمرار لـ "تعزيز سلامة نماذجها" وقدرتها على التعامل مع الأزمات النفسية، وذلك في ظل الضغوط القانونية والأخلاقية والتنظيمية المتزايدة التي تواجه صناعة الذكاء الاصطناعي ككل، مما يجعل السلامة أولوية قصوى.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً