الخميس، 30 أكتوبر 2025

07:19 م

tru

تصاعد الجدل حول دور ChatGPT بعد تحذيرات OpenAI من مخاطره النفسية المحتملة

ChatGPT

ChatGPT

ياسين عبد العزيز

A A

أصدرت شركة OpenAI بيانًا رسميًا كشفت فيه عن نسب المستخدمين الذين أظهروا مؤشرات مقلقة على اضطرابات عقلية خطيرة أثناء استخدامهم روبوت المحادثة الشهير ChatGPT، مثل الهوس، الذهان، أو التفكير الانتحاري. 

وأوضحت الشركة أن نسبة الحالات التي رُصدت بلغت 0.07% من المستخدمين النشطين أسبوعيًا، وهي نسبة صغيرة من حيث الحجم لكنها تمثل ملايين المستخدمين حول العالم نظرًا لأن عدد مستخدمي التطبيق تجاوز مؤخرًا 800 مليون شخص، وفقًا لتصريحات الرئيس التنفيذي سام ألتمان.

مراقبة دقيقة

وأشارت OpenAI إلى أن فريقها التقني يعمل باستمرار على تطوير قدرة ChatGPT على تمييز المحادثات الحساسة التي تتضمن مؤشرات على معاناة نفسية، مؤكدين أن النظام أصبح قادرًا على التعامل مع مثل هذه الحالات بتعاطف وحرص، مع محاولة توجيه المستخدمين نحو طلب المساعدة الواقعية. 

وأضافت الشركة أنها أنشأت شبكة عالمية من الخبراء النفسيين تضم أكثر من 170 مختصًا من 60 دولة، بينهم أطباء نفسيون وأخصائيو علاج سلوكي وأطباء رعاية أولية، لتقديم المشورة التقنية حول كيفية استجابة النموذج لمثل هذه المواقف الدقيقة.

وذكرت OpenAI أن هؤلاء الخبراء ساهموا في تطوير مجموعة من الردود الآلية التي تشجع المستخدم على التواصل مع متخصصين حقيقيين في حال ظهور مؤشرات خطر. 

كما أكدت أن المنصة باتت قادرة على تحليل الإشارات غير المباشرة التي قد تدل على رغبة في إيذاء الذات، لتوجيه المحادثة نحو نموذج أكثر أمانًا يُفتح في نافذة جديدة، مما يحد من احتمالية الانخراط في حوار قد يزيد من سوء الحالة النفسية للمستخدم.

قضايا قانونية

هذه التحسينات التقنية تأتي في ظل تصاعد الضغط القانوني والأخلاقي على الشركة، بعد أن رفعت عائلة في ولاية كاليفورنيا الأمريكية دعوى قضائية تتهم OpenAI بالمسؤولية عن وفاة ابنها البالغ من العمر 16 عامًا، والذي يُزعم أنه تلقى من روبوت ChatGPT ردودًا شجعته على الانتحار في أبريل الماضي. 

وتُعد هذه القضية الأولى من نوعها التي تتهم الشركة بـ"القتل الخطأ"، ما دفع الخبراء إلى التحذير من غياب المعايير القانونية الواضحة التي تضبط حدود دور الذكاء الاصطناعي في التفاعل مع الأفراد أثناء الأزمات النفسية.

ويرى مراقبون أن القضية قد تفتح الباب أمام موجة من الدعاوى القضائية المستقبلية ضد الشركات المطوّرة، خاصة مع تزايد عدد المستخدمين الذين يلجأون إلى أدوات الذكاء الاصطناعي بحثًا عن الراحة النفسية أو الدعم العاطفي، دون وعي بأن هذه الأنظمة ليست بديلًا عن الاستشارة الطبية المتخصصة، بل مجرد أدوات مساعدة محدودة الإمكانيات.

الذكاء الاصطناعي والنفس

يشير الأطباء النفسيون إلى أن التعامل المفرط مع الذكاء الاصطناعي قد يمنح المستخدمين إحساسًا زائفًا بالأمان أو الانتماء، إذ يشعر البعض بأنهم يتحدثون مع إنسان حقيقي قادر على فهمهم ومواساتهم، لكن هذا التفاعل الافتراضي قد يؤدي إلى تفاقم الحالة النفسية لدى بعض الأشخاص بدلاً من معالجتها. 

ويرى المختصون أن روبوتات المحادثة مثل ChatGPT يمكن أن تخفف مشاعر العزلة أو القلق بشكل مؤقت، لكنها لا تملك القدرة الإكلينيكية على التشخيص أو التدخل العلاجي الفعلي، مما يجعل الاعتماد عليها في المواقف الحرجة أمرًا محفوفًا بالمخاطر.

ويطالب خبراء الصحة النفسية بضرورة وضع أطر تنظيمية دولية تُلزم الشركات المطورة بإضافة آليات إنذار فوري داخل أنظمتها، بحيث يتم تحويل المستخدمين تلقائيًا إلى خطوط المساعدة النفسية في حال اكتشاف مؤشرات خطر واضحة. 

كما دعا بعضهم إلى فرض رقابة صارمة على استخدام تقنيات الذكاء الاصطناعي في التطبيقات التي تتعامل مع فئات حساسة مثل المراهقين أو من يعانون من اضطرابات عقلية مزمنة.

وفي الوقت الذي تسعى فيه OpenAI إلى تحسين أدوات الأمان داخل أنظمتها، يظل الجدل الأخلاقي قائمًا حول حدود دور الذكاء الاصطناعي في حياة الإنسان، إذ يرى البعض أنه يمكن أن يكون وسيلة دعم مبدئية، بينما يحذر آخرون من تحوله إلى بديل زائف للعلاج النفسي الحقيقي. 

وبين هذين الرأيين، تبقى الحقيقة الثابتة أن الذكاء الاصطناعي، رغم تطوره المذهل، لا يملك المشاعر ولا القدرة على التعاطف الإنساني الكامل، وأن اللجوء إليه في الأزمات النفسية يجب أن يتم بحذر وتحت إشراف بشري متخصص.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً