الإثنين، 25 أغسطس 2025

04:54 م

tru

أنثروبيك تشدد الرقابة على كلود لمواجهة مخاطر الذكاء الاصطناعي

كلود

كلود

ياسين عبد العزيز

A A

أعلنت شركة أنثروبيك عن تحديثات مشددة لسياسة استخدام روبوتها للدردشة "كلود"، وذلك ضمن إطار إستراتيجية تهدف إلى ضمان السلامة الرقمية ومنع استغلال قدراته المتقدمة في أنشطة غير قانونية أو خطيرة. 

ويأتي هذا القرار بعد موجة من النقاشات العالمية حول ضرورة وضع ضوابط صارمة لتوجيه الذكاء الاصطناعي بما يخدم الأمن العام ويحمي المجتمعات من المخاطر المستقبلية.

منذ ظهوره الأول، أثار روبوت "كلود" اهتماماً كبيراً باعتباره أحد أكثر أنظمة الدردشة الذكية تطوراً، إذ يقدم إمكانيات واسعة في البحث، التحليل، وإنجاز المهام المعقدة بسرعة قياسية. 

غير أن هذه القدرات أثارت أيضاً مخاوف بشأن إمكانية استغلالها في تطوير أدوات قد تُستخدم لأغراض ضارة، وهو ما دفع الشركة إلى إدخال تعديلات صارمة على سياسات الاستخدام لتفادي مثل هذه السيناريوهات.

حظر موسع للأسلحة

أوضحت أنثروبيك أن التحديثات الأخيرة تشمل توسيع نطاق الحظر ليغطي بشكل أكثر شمولاً أي محاولة لاستخدام "كلود" في تطوير الأسلحة الخطرة بمختلف أنواعها، ففي حين كانت السياسة السابقة تمنع استخدام الروبوت في تصميم أو تعديل أو تسويق المتفجرات أو المواد الكيمياوية، فإن التحديث الجديد يفرض قيوداً إضافية تمنع استغلاله في إنتاج أسلحة بيولوجية أو نووية أو إشعاعية، الأمر الذي يعكس اتجاهاً عالمياً متنامياً للحد من احتمالية إساءة استغلال تقنيات الذكاء الاصطناعي في تطوير أسلحة الدمار الشامل.

كلود

وأكدت الشركة أن أي محاولة لاستخدام "كلود" في هذا السياق ستعتبر انتهاكاً مباشراً للسياسات، وسيتم التعامل معها بأقصى درجات الصرامة، موضحة أن الهدف من هذه الخطوة هو حماية الأرواح وضمان أن يظل الذكاء الاصطناعي أداةً لخدمة البشرية لا تهديداً لها.

حماية رقمية متقدمة

إلى جانب الحظر الموسع، أعلنت الشركة عن تطبيق نظام حماية جديد تحت مسمى "مستوى أمان الذكاء الاصطناعي 3"، والذي تم إطلاقه بالتوازي مع النموذج الأحدث "Claude Opus 4". 

ويهدف هذا النظام إلى تعزيز قدرات الحماية في الروبوت، بحيث يصبح اختراقه أو استغلاله أكثر صعوبة، مع إضافة طبقات أمنية تمنع أي محاولات لاستخدامه في تطوير مواد خطرة أو شن هجمات إلكترونية.

ويرى خبراء التقنية أن هذه الخطوة تمثل نقلة نوعية في مجال أمن الذكاء الاصطناعي، إذ تؤكد أن الشركات الكبرى باتت تدرك حجم المسؤولية الملقاة على عاتقها في ضبط استخدام هذه التكنولوجيا المتقدمة، خاصة مع تزايد الحديث عن الذكاء الاصطناعي كأداة يمكن أن تشكل خطراً على الأمن العالمي إذا لم يتم التعامل معها بحذر شديد.

مراقبة الأدوات المتقدمة

لم تقتصر التحديثات على مسألة الأسلحة فقط، بل شملت أيضاً التحكم في قدرات "كلود" الموسعة مثل أداة "استخدام الحاسوب" التي تتيح له التفاعل المباشر مع أجهزة المستخدم، وأداة "Claude Code" الموجهة للمطورين، فبينما تُعد هذه الميزات نقلة إيجابية في تسهيل عمل المبرمجين وإنجاز المهام، إلا أنها في الوقت ذاته قد تُستغل لإنشاء برمجيات خبيثة أو تنفيذ هجمات إلكترونية متقدمة، وهو ما دفع أنثروبيك إلى وضع لوائح صارمة تمنع أي استخدام خارج الأطر القانونية والأخلاقية.

كما أضافت الشركة بنداً خاصاً يحظر استغلال الروبوت في اكتشاف الثغرات الأمنية أو تطوير أدوات قرصنة، مؤكدة أن الهدف من ذلك هو ضمان أن يظل "كلود" عاملاً مساعداً في الابتكار والإنتاجية، بعيداً عن أي مخاطر تهدد أمن الأنظمة والشبكات حول العالم.

ومع هذه التعديلات، تبعث أنثروبيك برسالة واضحة مفادها أن الذكاء الاصطناعي يجب أن يُدار ضمن إطار من المسؤولية، وأن التوسع في قدراته لا بد أن يقابله توسع مماثل في أنظمة الحماية والرقابة، بما يضمن بقاء هذه التكنولوجيا خادمة للإنسان لا خطراً عليه.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً