الذكاء الاصطناعي بين حماية الضعفاء وتكرار التحيزات القديمة

الذكاء الاصطناعي
ياسين عبد العزيز
يشهد العالم المعاصر اندفاعًا متسارعًا نحو توظيف تقنيات الذكاء الاصطناعي في المجالات الإنسانية، لا سيما تلك المرتبطة بحماية الفئات الضعيفة، كالأطفال في أنظمة الرعاية، وكبار السن في دور المسنين، والطلاب في المدارس.
ويبدو للوهلة الأولى أن هذه التقنية الحديثة تقدم وعودًا مبشرة بالكشف المبكر عن المخاطر، وإنذار السلطات المختصة قبل وقوع الأضرار الجسيمة.
ومع ذلك، لا تخلو هذه الصورة من التحديات العميقة والمخاوف الأخلاقية، التي تثير أسئلة ملحة حول ما إذا كنا نشهد ثورة في نظم الحماية، أم أننا بصدد أتمتة الأخطاء والتحيزات المتأصلة ذاتها.
استخدامات متنوعة
يوفر الذكاء الاصطناعي إمكانيات عديدة لتحسين فاعلية أنظمة الحماية، فباستخدام تحليل الأنماط اللغوية، تستطيع أدوات معالجة اللغة الطبيعية التقاط مؤشرات التهديد أو التلاعب في الرسائل النصية، مما قد يُنذر بوجود عنف أسري مبكرًا.
كما تعتمد بعض وكالات رعاية الأطفال على النمذجة التنبؤية لتقدير درجة الخطر داخل الأسر، ما يساعد العاملين الاجتماعيين على ترتيب الأولويات بشكل أكثر فعالية.
في المراقبة، تمثل الكاميرات الذكية المدعومة بالذكاء الاصطناعي طفرة تكنولوجية، فهي تراقب تحركات الأطراف وليس الوجوه أو الأصوات، لرصد علامات العنف الجسدي.
أضف إلى ذلك أدوات دعم القرار، التي تساعد المتخصصين الاجتماعيين في الوصول إلى مؤشرات يصعب ملاحظتها بالعين المجردة، مما يمنحهم فرصة التدخل قبل تفاقم المشكلات.
ومن أبرز المبادرات في هذا السياق، مشروع "iCare" الذي تطوره الدكتورة أيسلين كونراد، أستاذة الخدمة الاجتماعية بجامعة أيوا.
ويعتمد هذا النظام على تحليل حركات الجسم لاكتشاف مؤشرات العنف، وهو توجه تقني يُجنّب التطفل على ملامح الوجه أو الأصوات، ويقلل من الانتهاك الصارخ للخصوصية، لكن رغم هذه التطورات، تؤكد الدكتورة كونراد أن هذه الأنظمة ليست محصنة من التحيز، محذرة من إمكانية تحويل الذكاء الاصطناعي إلى أداة تُكرس الانتهاكات بدلًا من معالجتها.

إرث التحيز
أحد أبرز المخاطر التي تهدد فاعلية الذكاء الاصطناعي في هذا المجال هو اعتماده على بيانات تاريخية مشبعة بالتمييزات العنصرية والطبقية، ففي مقاطعة أليجيني الأمريكية، أظهرت دراسة في عام 2022 أن نموذجًا للتنبؤ بالمخاطر كان يبلغ عن الأطفال السود بنسبة تزيد عن 20% مقارنة بالأطفال البيض إذا استخدم دون إشراف بشري.
بينما انخفضت النسبة إلى 9% عند تدخل الأخصائيين الاجتماعيين، مما يثبت أن الاعتماد المفرط على الآلة يُضخم من التحيزات القديمة.
كما كشفت أبحاث أخرى أن أدوات تحليل اللغة غالبًا ما تُسيء تصنيف اللهجات المحلية أو اللغة العامية، خاصة للمتحدثين من الأقليات، على أنها عدوانية أو مشبوهة، مما قد يؤدي إلى تدخلات غير مبررة.
وفي عام 2023، أظهرت دراسة أن بعض الأنظمة فشلت في تفسير السياق اللغوي، مثل الفكاهة أو التهكم، ما أدى إلى تصنيفات خاطئة لحالات ليست مقلقة.
تُظهر هذه النتائج أن الخوارزميات ليست محايدة، بل هي انعكاس لمن صمموها وللبيئة الاجتماعية التي نُسجت فيها بياناتها، وهو ما يضع تساؤلات حادة حول العدالة التي يمكن أن توفرها هذه الأنظمة.
خصوصية مهددة
تُبرز تجارب الاستخدام الميداني للذكاء الاصطناعي ثمنًا باهظًا يدفعه المستفيدون، فالمراقبة المكثفة قد تتحول إلى عبء، ففي أستراليا، ولَّد نظام مراقبة مدعوم بالذكاء الاصطناعي في دارين للرعاية أكثر من 12 ألف إنذار كاذب خلال عام واحد فقط، ما أدى إلى إنهاك العاملين وإغفال حادثة حقيقية واحدة على الأقل.
وفي المدارس الأمريكية، أصبحت أنظمة مثل Gaggle وGoGuardian أدوات رئيسية لمراقبة الطلاب، لكنها كثيرًا ما فسرت أنشطة بريئة ككتابة قصص خيالية أو البحث عن موضوعات الصحة النفسية على أنها سلوكيات خطرة، أما الأنظمة التي تستخدم كاميرات وميكروفونات داخل الفصول فقد بالغت في تفسير الضحك أو السعال كمؤشرات عدوانية، ما أدى إلى عقوبات غير مبررة بحق الطلاب.
هذه التجارب تُظهر كيف أن استخدام الذكاء الاصطناعي، دون مراعاة للسياق أو لخصوصية الأفراد، قد ينقلب من وسيلة حماية إلى أداة رقابة، بل وتسبب في إلحاق أذى نفسي أو اجتماعي غير مقصود بمن يُفترض أنهم بحاجة إلى الرعاية لا إلى العقوبة.
مقاربة إنسانية
رغم هذه التحديات، تشير مبادرات مثل "الذكاء الاصطناعي المستجيب للصدمات"، الذي طورته الدكتورة كونراد، إلى إمكانية بناء أنظمة أكثر إنصافًا، ويقوم هذا الإطار على أربعة مبادئ: أولا، ضرورة أن يتحكم الأفراد في بياناتهم ومتى تُستخدم، وهو ما يعزز ثقتهم بالنظام، ثانيًا، الحفاظ على الإشراف البشري في اتخاذ القرارات، لأنه لا يمكن للآلة أن تحل محل الحس الإنساني، ثالثًا، تطبيق اختبارات صارمة للكشف عن التحيزات العرقية والاجتماعية، ورابعًا، ضمان الخصوصية في تصميم الأنظمة منذ البداية.
تُظهر هذه المبادئ كيف يمكن استخدام الذكاء الاصطناعي كأداة تمكين، إذا ما صُمم بعناية وأُخضع للمحاسبة.
وفي هذا الإطار، تأتي تشريعات مثل تلك التي تبنتها ولاية مونتانا الأمريكية، لتقييد استخدام الذكاء الاصطناعي الحكومي دون إشراف بشري، كمثال على ضرورة الإطار القانوني الصارم المصاحب للتقنيات الحديثة.
إن الذكاء الاصطناعي لا يملك وحده القدرة على الحماية أو الضرر، بل يتوقف ذلك على من يصممه، ومن يشرف عليه، وكيفية توجيهه، لذا، فإن الأمل معقود على بناء أنظمة تشاركية، تعترف بكرامة الإنسان أولًا، وتوظف التقنية في سبيل خدمة البشر، لا إخضاعهم.
أخبار ذات صلة
الأكثر مشاهدة
أحدث الموبايلات
-
Apple iPhone 13 Pro Max
-
Xiaomi Redmi Note 11
-
Samsung Galaxy A52s
-
OPPO Reno6 Pro 5G
-
realme GT2 Pro
-
vivo Y19
-
Honor 50 Pro
-
Huawei Nova 9
-
Nokia 8.3 5G
هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟
-
نعم
-
لا
-
غير مهتم
أكثر الكلمات انتشاراً