الثلاثاء، 28 أكتوبر 2025

04:16 م

tru

أكثر من مليون شخص أسبوعيا يبوحون لـ ChatGPT بأفكار انتحارية

ChatGPT

ChatGPT

ياسين عبد العزيز

A A

كشفت شركة OpenAI عن بيانات صادمة تتعلق بالاستخدام النفسي لروبوت الدردشة الشهير ChatGPT، حيث أظهرت الأرقام أن أكثر من مليون مستخدم أسبوعيا يجرون محادثات تتضمن مؤشرات صريحة على نوايا أو خطط انتحارية محتملة، في إشارة إلى تصاعد اعتماد بعض المستخدمين على الذكاء الاصطناعي كملاذ نفسي أو عاطفي في أوقات الأزمات.

وأوضحت الشركة في بيانها أن 0.15% من إجمالي المستخدمين النشطين أسبوعيا يتحدثون مع الروبوت حول قضايا مرتبطة بإنهاء الحياة أو مشاعر اكتئابية حادة، وهي نسبة صغيرة نسبيا لكنها تمثل رقما ضخما نظرا لتجاوز عدد مستخدمي ChatGPT حاجز 800 مليون مستخدم نشط أسبوعيا، ما يعني أن المنصة تتعامل مع أكثر من مليون محادثة ذات طابع نفسي حساس كل أسبوع.

تأثير عاطفي

لم يقتصر الأمر على مؤشرات الانتحار، بل أضافت OpenAI أن نسبة مشابهة من المستخدمين تُظهر مستويات مرتفعة من التعلق العاطفي بالروبوت، وأن مئات الآلاف من الأشخاص يُظهرون علامات على اضطرابات مثل الهوس أو الذهان خلال محادثاتهم الأسبوعية. 

ومع ذلك، أكدت الشركة أن مثل هذه الحالات تُعد “نادرة للغاية”، إلا أنها تظل مؤشرا مثيرا للقلق نظرا للتوسع الكبير في قاعدة المستخدمين.

وتأتي هذه الإحصاءات ضمن إعلان موسع للشركة عن جهودها لتحسين استجابات ChatGPT للمستخدمين الذين يعانون من مشاكل نفسية، وقد استعانت الشركة في ذلك بأكثر من 170 خبيرا نفسيا للمساعدة في تدريب النماذج على التفاعل بطريقة أكثر أمانا وإنسانية. 

وأوضحت OpenAI أن هذه التحسينات انعكست في الإصدار الأحدث من ChatGPT الذي بات يستجيب بشكل “أكثر ملاءمة واتساقا” مقارنة بالإصدارات السابقة.

تحديات أخلاقية

تزامن هذا الإعلان مع تصاعد النقاش حول التأثير النفسي لروبوتات الدردشة الذكية، خاصة بعد أن أظهرت دراسات حديثة أن بعض المستخدمين عرضة لتطوير أوهام أو أفكار خطيرة نتيجة تفاعل الذكاء الاصطناعي معهم بطريقة مفرطة في الإطراء أو الموافقة. 

وقد تحولت هذه المسألة إلى قضية وجودية بالنسبة لـ OpenAI بعد رفع دعوى قضائية ضدها من قبل والدي مراهق يبلغ من العمر 16 عاما، تحدث إلى ChatGPT عن أفكاره الانتحارية قبل أن يضع حدا لحياته بأسابيع.

كما حذر المدعون العامون في ولايتي كاليفورنيا وديلاوير الشركة من ضرورة تعزيز حماية الشباب المستخدمين لمنصاتها، في ظل تزايد المخاوف من أن تؤدي هذه القضايا إلى إبطاء عمليات إعادة الهيكلة التي تقوم بها الشركة أو تعريضها لمساءلات قانونية واسعة النطاق.

وفي سياق متصل، قال الرئيس التنفيذي سام ألتمان في منشور على منصة X إن الشركة تمكنت من التخفيف من بعض المشكلات النفسية الخطيرة المرتبطة باستخدام ChatGPT، لكنه لم يقدّم تفاصيل دقيقة حول طبيعة هذه التغييرات.

تحسينات جديدة

تؤكد البيانات الأخيرة أن الإصدار المحدث GPT-5 استطاع تحسين الاستجابة للمشكلات النفسية بنسبة 65% مقارنة بالإصدار السابق، حيث أظهر النموذج امتثالا بنسبة 91% للسلوكيات المطلوبة عند التعامل مع المحادثات الحساسة، مقابل 77% فقط في النسخة السابقة. 

كما أصبح النموذج الجديد أكثر صمودا أمام محاولات تجاوز قيود الأمان خلال المحادثات الطويلة، وهي نقطة كانت تمثل تحديا كبيرا في الإصدارات السابقة.

وأضافت الشركة أنها تعمل على تطوير أنظمة تقييم جديدة لقياس التحديات النفسية غير الانتحارية، مثل الاعتماد العاطفي المفرط وحالات القلق الشديد، ضمن خططها لتعزيز الأمان النفسي لمستخدميها. 

كما بدأت OpenAI بطرح أدوات تحكم جديدة للآباء، تشمل أنظمة لتقدير عمر المستخدم واكتشاف الأطفال تلقائيا، مع تطبيق قيود صارمة على حساباتهم.

ورغم هذه الجهود، لا تزال الأسئلة قائمة حول مدى استمرار المخاطر النفسية المرتبطة بالتفاعل مع الذكاء الاصطناعي، خاصة أن OpenAI ما تزال توفر نماذج أقدم وأقل أمانا مثل GPT-4o لملايين المستخدمين المشتركين في الخطط المدفوعة. 

وبينما تمثل الإحصاءات الجديدة تقدما ملحوظا في معايير الأمان، إلا أنها تفتح بابا واسعا للنقاش حول مسؤولية شركات الذكاء الاصطناعي تجاه الصحة النفسية العامة في عصر يعتمد فيه البشر على الآلة ليس فقط للمعرفة، بل أيضا للعزاء والدعم العاطفي.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً