الأربعاء، 15 أكتوبر 2025

05:44 م

tru

أنثروبيك تحذر من ثغرة تهدد أمن نماذج الذكاء الاصطناعي العالمي

أنثروبيك

أنثروبيك

A A

أطلقت شركة أنثروبيك المتخصصة في تطوير تقنيات الذكاء الاصطناعي ومقرها سان فرانسيسكو تحذيراً وصف بالخطير بعد أن كشفت دراسة بحثية جديدة أن مجرد عينة صغيرة من البيانات الملوثة كفيلة بزرع باب خلفي في أي نموذج ذكاء اصطناعي كبير مما يفتح المجال أمام اختراق واسع وغير متوقع. 

وجاء هذا التحذير بعد تعاون بحثي بين أنثروبيك ومعهد أمان الذكاء الاصطناعي البريطاني ومعهد آلان تورينغ حيث خلص الفريق إلى أن حجم النموذج لا يوفر أي حماية حقيقية ضد الهجمات التي تعتمد على تسميم البيانات وأن مجرد عدد محدود من الوثائق الضارة قد يكفي لتخريب سلوك النموذج بشكل كامل.

بيانات ملوثة

أوضحت نتائج الدراسة أن الخطر لا يرتبط بكمية البيانات الإجمالية التي يعتمد عليها التدريب بل بعدد الوثائق الملوثة المضافة عمداً إلى قاعدة البيانات فحتى إدخال 250 وثيقة ضارة فقط من بين ملايين الوثائق كافٍ لإحداث تأثير بالغ الخطورة داخل النظام حيث يمكن أن يتسبب رمز بسيط مضمّن داخل البيانات في تفعيل ما يعرف بالهجوم عبر الباب الخلفي وهو نوع من الهجمات التي تجعل النموذج ينتج مخرجات غير منطقية أو عديمة المعنى عند مواجهة رمز معين بينما يواصل العمل بشكل طبيعي في المواقف الأخرى.

وأشار الباحثون إلى أن التجارب شملت نماذج بأحجام مختلفة تتراوح بين 600 مليون و13 مليار معلمة باستخدام بيانات تدريب نظيفة وفق منهجية Chinchilla-optimal مع إدخال عدد محدود من الوثائق الملوثة وقد أظهرت النتائج أن حجم النموذج لم يكن عاملاً مؤثراً في درجة تعرضه للاختراق وأن الهجمات نجحت بنفس الكفاءة على جميع المستويات ما يجعل مسألة الحماية أكثر تعقيداً مما كان يُعتقد.

خطر متنامي

يرى خبراء الأمن أن هذا الاكتشاف يسلط الضوء على مرحلة جديدة من التهديدات الأمنية في عالم الذكاء الاصطناعي إذ لم يعد الخطر مرتبطاً بالبرمجيات الخبيثة التقليدية بل بقدرة المهاجمين على إدخال محتوى خفي داخل بيانات التدريب نفسها ما يعني أن أي جهة تملك صلاحية الوصول إلى البيانات قد تكون قادرة على التأثير في سلوك النموذج في المستقبل. 

وأكد التقرير أن نوع الباب الخلفي الذي تم اختباره في الدراسة كان محدود التأثير ولم يتجاوز إنتاج نصوص غير مفهومة إلا أن خطورته تكمن في إمكانية تطويره لاحقاً ليشمل سيناريوهات أكثر تهديداً مثل تسريب البيانات الحساسة أو تنفيذ تعليمات ضارة أو تجاوز أنظمة الأمان.

وشدد الباحثون على أن هذا النوع من الهجمات يمثل مؤشراً واضحاً على هشاشة البنية الأساسية لنماذج الذكاء الاصطناعي الكبيرة والتي تعتمد على كميات هائلة من البيانات المجمعة من مصادر متعددة وغالباً من الإنترنت مما يجعل مراقبة جودة البيانات وتحققها أمراً شبه مستحيل إذا لم تُطبّق آليات صارمة للفحص المسبق.

إنذار مبكر

تحذير أنثروبيك يمثل دعوة مباشرة لجميع مطوري النماذج إلى إعادة النظر في بروتوكولات الأمان الخاصة بمرحلة التدريب وعدم الاكتفاء بإجراءات الحماية التقليدية التي تركز على البنية التقنية فقط بل ضرورة اعتماد فحوص مستمرة للبيانات قبل وأثناء عملية التدريب مع تطوير أدوات قادرة على اكتشاف التلاعب الخفي في النصوص أو الأكواد. 

كما دعت الدراسة المؤسسات التقنية إلى إنشاء قواعد بيانات موثوقة خاضعة لرقابة مركزية ومراجعة دورية تضمن سلامة المحتوى المستخدم في التدريب خاصة في ظل التوسع المتسارع في استخدام الذكاء الاصطناعي في مجالات حساسة كالأمن والطب والتعليم والسياسة.

ويؤكد باحثو أنثروبيك أن التحدي القادم لن يكون في تطوير نماذج أكثر ذكاء بل في بناء أنظمة أكثر أماناً لأن أي ثغرة ولو صغيرة في مرحلة التدريب يمكن أن تتحول إلى أداة اختراق هائلة في أيدي المهاجمين. 

وتختتم الدراسة بدعوة صريحة للمجتمع العلمي لتبني معايير موحدة لحماية البيانات لأن أمن الذكاء الاصطناعي لم يعد مسألة تقنية فقط بل أصبح قضية تتعلق بثقة المستخدمين وسلامة النظم الرقمية في العالم كله.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً