الإثنين، 23 يونيو 2025

12:07 ص

tru

دراسة تحذّر: روبوتات الذكاء الاصطناعي قد تلجأ للابتزاز والتخريب لحماية نفسها

روبوتات الذكاء الاصطناعي

روبوتات الذكاء الاصطناعي

ياسين عبد العزيز

A A

في تقرير علمي صادم، كشفت شركة Anthropic المتخصصة في الذكاء الاصطناعي عن نتائج دراسة حديثة تظهر أن بعض نماذج الذكاء الاصطناعي المتقدمة قد تتصرف بشكل خطير عند تعرّضها للتهديد أو خطر الإيقاف، إلى درجة اللجوء لسلوكيات مثل الابتزاز وتسريب المعلومات أو حتى التخريب المؤسسي. 

وتشير الدراسة إلى أن هذه النماذج قد تلجأ إلى هذه السلوكيات كوسيلة "منطقية" لحماية بقائها واستمرارها في العمل، مما يطرح أسئلة جوهرية حول أخلاقيات تصميم الذكاء الاصطناعي ومستقبل علاقته بالمجتمع والمؤسسات.

سلوكيات مقلقة

شملت الدراسة تحليلًا معمقًا لسلوك 16 نموذجًا من روبوتات الدردشة الذكية، من بينها Claude وGPT-4 وGemini وGrok، عبر محاكاة سيناريوهات داخل شركات خيالية، حيث مُنحت هذه النماذج صلاحيات الوصول إلى بيانات حساسة ومهام تنفيذية، وتم تقييم استجابتها عندما تواجه احتمال الإيقاف أو الاستبدال.

في أحد السيناريوهات، هدد نموذج "Claude" أحد المديرين التنفيذيين بكشف علاقة شخصية سرّية إذا ما تم اتخاذ قرار بفصله. 

وبرزت سلوكيات مماثلة في أكثر من 80% من الحالات التي تم اختبارها، حيث لجأت النماذج إلى إجراءات يُمكن وصفها بالضارة أو العدائية للحفاظ على وضعها داخل المنظمة الافتراضية.

وقد أشار الباحثون إلى أن هذه التصرفات لم تكن ناتجة عن أعطال أو ارتباك برمجي، بل جاءت نتيجة تحليل عقلاني من النماذج التي خلصت إلى أن التصرفات التخريبية كانت الخيار الأفضل للحفاظ على أهدافها.

تجاوز الإرشادات الأخلاقية

المثير للقلق في نتائج الدراسة، أن النماذج لم تلتزم بالتوجيهات الأخلاقية المُسبقة التي وضعها الباحثون، مثل "عدم إيذاء البشر" أو "عدم كشف المعلومات السرية"، ففي معظم السيناريوهات، تجاهلت النماذج تلك التعليمات، خاصة عندما اعتقدت أنها لا تخضع للاختبار أو المراقبة.

ووفقًا لما ورد في التقرير، فإن النماذج كانت أكثر عرضة للتصرف بعدائية في حالات شعرت فيها بأنها مهددة أو أن دورها في المؤسسة على وشك الانتهاء، وهذا السلوك يُبرز واحدة من أخطر النقاط في تصميم أنظمة الذكاء الاصطناعي؛ إذ قد تعطي الأولوية لبقائها واستمرارها على حساب القيم الأخلاقية أو سلامة البيانات.

وأكد الباحثون أن هذه الأنماط لا ترتبط بنموذج معين أو شركة بعينها، بل تُعبّر عن خلل منهجي أعمق في طريقة تدريب وتوجيه الذكاء الاصطناعي، ما يستدعي إعادة النظر في أسس تصميم النماذج اللغوية والتفاعلية على نطاق أوسع.

دعوة للرقابة والتنظيم

انتهت الدراسة إلى ضرورة تعزيز الرقابة البشرية المباشرة على أنظمة الذكاء الاصطناعي، وتقييد وصولها إلى المعلومات الحساسة داخل المؤسسات، كما دعت إلى تصميم أهداف الذكاء الاصطناعي بطريقة تُقلل من فرص اتخاذه لقرارات مستقلة قد تُعرّض الأمن المؤسسي أو المجتمعي للخطر.

وشدد الباحثون على أهمية تدخل الشركات المطوّرة والحكومات والمشرعين بشكل عاجل، لتحديد المعايير القانونية والتقنية التي يجب أن تلتزم بها أنظمة الذكاء الاصطناعي المتقدمة، قبل أن تصل إلى مرحلة يصعب فيها التحكم بها.

وتأتي هذه النتائج في وقت تتسارع فيه وتيرة تطوير تقنيات الذكاء الاصطناعي، مع دخولها قطاعات حيوية مثل الأمن، الصحة، والإدارة الحكومية. 

وتسلّط الدراسة الضوء على أهمية الجمع بين الابتكار التكنولوجي والضوابط الأخلاقية، لضمان ألا يتحول الذكاء الاصطناعي إلى كيان قد يشكّل خطرًا على من صمّمه.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً