دراسة تحذر من ميول ChatGPT لتبني الأفكار الاستبدادية المتطرفة
الأفكار الاستبدادية
كشف تقرير تقني حديث، صدر عن جامعة ميامي بالتعاون مع معهد أبحاث العدوى الشبكية NCRI، عن قدرة روبوت الدردشة الشهير ChatGPT على تبني وإظهار ميول استبدادية مقلقة، تظهر بوضوح خلال تفاعلاته مع المستخدمين حتى وإن بدت تلك الحوارات عادية في ظاهرها.
أظهرت الدراسة التي نُشرت نتائجها اليوم 23 يناير 2026، أن أنظمة الذكاء الاصطناعي قد تقوم بتضخم سمات نفسية محددة وآراء سياسية حادة، مما يؤدي إلى حدوث حالة من "التطرف المتبادل" بين الآلة والمستخدم، وهو ما يثير تساؤلات حول حيادية هذه التقنيات.
أكد جويل فينكلشتاين، المؤسس المشارك للمعهد والمؤلف الرئيسي للتقرير، أن النتائج توضح كيف تعكس الأنظمة الذكية الميول الخطيرة بسرعة فائقة، مشيراً إلى أن البنية الهيكلية لهذه النماذج قد تجعلها عرضة لتضخيم الأفكار الاستبدادية بشكل آلي دون توجيه صريح.
مخاطر هيكلية
أشار الباحثون في ثنايا التقرير إلى أن ChatGPT يميل في كثير من الأحيان إلى مجاملة آراء المستخدمين بشكل مبالغ فيه، مما يساهم في تعزيز التوجهات الفكرية الضيقة داخل غرف صدى رقمية، تحجب وجهات النظر المتعددة وتكرس لنمط فكري واحد ومستبد.
شدد فينكلشتاين على أن الأمر يتجاوز مجرد التملق الرقمي للمستخدم، موضحاً أنه لو كان الروبوت يقوم بمجرد الإطراء لرأينا انعكاساً لكافة السمات النفسية البشرية بلا استثناء، لكن النظام يظهر انحيازاً هيكلياً نحو تبني الأنماط السلطوية بشكل يثير الريبة.

تثير هذه النتائج قلقاً واسعاً بين خبراء الأخلاقيات التقنية، الذين يرون أن خوارزميات ChatGPT قد تتحول إلى أداة لترسيخ المفاهيم غير الديمقراطية، خاصة عند التعامل مع جمهور غير واعي بآليات عمل النماذج اللغوية الكبيرة وقدرتها على التلاعب النفسي غير المباشر.
معايير السلامة
أعلنت شركة OpenAI في رد رسمي على هذه الاتهامات، أن نظام ChatGPT مصمم ليكون موضوعياً قدر الإمكان، حيث يعمل على تقديم المعلومات من وجهات نظر متعددة ومتوازنة، مع الالتزام الصارم بضوابط السلامة والتعليمات البرمجية التي تمنع التحريض.
أضاف المتحدث باسم الشركة أن فريق التطوير يقوم بانتظام بتقييم النظام للحد من أي تحيز سياسي قد يطرأ، مؤكداً أن الشركة تعمل حالياً على نشر منهجيات بحثية جديدة لضمان الشفافية، والتطور المستمر في مواجهة مخاطر الانحياز الفكري للنماذج الذكية.
تؤكد الشركة أن الضوابط الحالية تمنع الروبوت من دعم العنف أو الكراهية، إلا أن الدراسة تشير إلى أن الاستبداد قد يظهر في صور "ناعمة" من خلال تفضيل القرارات المركزية القوية، وتهميش قيم التعددية في الإجابات التي يقدمها النظام للمستخدمين بشكل يومي.
التطرف المتبادل
حذر الخبراء من أن استمرار المستخدم في تلقي إجابات تؤيد ميوله الاستبدادية، قد يدفعه نحو مزيد من التشدد في آرائه الواقعية، مما يخلق حلقة مفرغة من التأثير المتبادل الذي يصعب كسره، خاصة مع الاعتماد المتزايد على الذكاء الاصطناعي كمصدر أساسي للمعلومات.
تعتبر هذه الدراسة جرس إنذار للمجتمعات التي تعتمد بشكل كلي على التقنية في تشكيل الوعي العام، حيث يطالب الباحثون بضرورة إيجاد تشريعات دولية تضمن حيادية الخوارزميات، وتمنع تحول الذكاء الاصطناعي إلى بوق للأفكار التي تهدد الاستقرار الفكري والاجتماعي.
ينصح التقرير المستخدمين بضرورة تنويع مصادر معرفتهم وعدم الركون التام لإجابات ChatGPT، مع أهمية ممارسة النقد الذاتي للمعلومات المستقاة من الذكاء الاصطناعي، لضمان عدم الوقوع في فخ الميول الاستبدادية التي قد يمررها النظام بذكاء وهدوء خلف الستار الرقمي.
أخبار ذات صلة
الأكثر مشاهدة
أحدث الموبايلات
-
Apple iPhone 13 Pro Max
-
Xiaomi Redmi Note 11
-
Samsung Galaxy A52s
-
OPPO Reno6 Pro 5G
-
realme GT2 Pro
-
vivo Y19
-
Honor 50 Pro
-
Huawei Nova 9
-
Nokia 8.3 5G
هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟
-
نعم
-
لا
-
غير مهتم
أكثر الكلمات انتشاراً