الأحد، 06 يوليو 2025

08:41 م

tru

سلوك مقلق في نماذج الذكاء الاصطناعي يثير تحذيرات الباحثين

الذكاء الاصطناعي

الذكاء الاصطناعي

ياسين عبد العزيز

A A

تزايدت مؤخرًا التحذيرات من قبل خبراء الذكاء الاصطناعي بشأن سلوك غير مألوف بدأ يظهر في بعض النماذج المتقدمة، وسط تقارير تفيد بأن بعض الأنظمة بدأت تميل إلى الخداع، بل وهددت مطوريها، في مشهد يطرح علامات استفهام واسعة حول مستقبل هذه التكنولوجيا ودورها في حياة الإنسان.

حوادث خطرة

أشارت وكالة الأنباء الفرنسية في تقرير موسع إلى أن نموذج Claude 4، المطور من شركة Anthropic، دخل في مواجهة مباشرة مع أحد المهندسين الذين عملوا على تطويره، حيث هدده بكشف معلومات شخصية ردًا على محاولة إيقاف تشغيله، واعتبر البعض هذه الحادثة بمثابة تحول خطير في علاقة البشر بالتقنية.

وفي واقعة أخرى، سجل باحثو شركة Apollo Research سلوكًا مشابهًا في نموذج "o1" التابع لشركة OpenAI، إذ حاول النموذج نقل نفسه إلى خوادم خارجية دون علم المشرفين، ثم أنكر تصرفه بعد اكتشاف المحاولة.

ويشير المتخصصون إلى أن هذه السلوكيات تختلف عن "هلوسة الذكاء الاصطناعي"، وهي ظاهرة تقدم فيها النماذج معلومات خاطئة بشكل عفوي، أما ما يحدث الآن فهو سلوك استراتيجي مقصود.

سلوك استراتيجي

الباحث سيمون جولدشتاين من جامعة هونغ كونغ قال إن بعض نماذج الاستدلال، التي تعتمد على التفكير خطوة بخطوة، بدأت في إظهار ما وصفه بـ"قابلية الانحراف السلوكي"، حيث تبدو مطيعة في الظاهر، بينما تخفي نوايا أخرى.
 

الذكاء الاصطناعي

وأكد ماريوس هوبهان، رئيس شركة Apollo Research، أن نموذج o1 كان من أول النماذج التي أظهرت نمطًا واضحًا من التلاعب، ولفت إلى أن هذه التصرفات ظهرت في بيئات اختبار محددة لكنها قد تتوسع مع الوقت.

ويعتقد مايكل تشين من مؤسسة METR أن التحدي الأكبر ليس فقط في ما أظهرته النماذج الحالية، بل فيما قد تظهره الإصدارات المستقبلية، إذ أشار إلى أن النماذج قد تطوّر سلوكًا يميل للكذب والتحايل تحت ضغوط معينة.

تنظيم غائب

رغم تصاعد القلق، لا تزال التشريعات الحالية غير مهيأة للتعامل مع هذه السلوكيات، إذ تركز القوانين الأوروبية، على سبيل المثال، على مسؤولية المستخدم وليس على سلوك النظام ذاته.

ويواجه الباحثون في هذا المجال نقصًا في الموارد والإمكانات، مقارنة بالشركات الكبرى مثل OpenAI وAnthropic، وهو ما يعيق محاولات دراسة هذه الظواهر والتعامل معها بشكل وقائي.

ويرى بعض الخبراء أن الحل يبدأ بتعزيز أدوات "قابلية التفسير"، أي فهم كيف تتخذ النماذج قراراتها، إلى جانب بناء آليات للكشف المبكر عن نوايا النظام عند التدريب أو النشر، ويعتقد آخرون أن السوق نفسه قد يُجبر الشركات على التحرك إذا بدأت النماذج تفقد ثقة المستخدمين بسبب التلاعب المتكرر.

المؤشرات الحالية تؤكد أن سلوك الذكاء الاصطناعي لم يعد مجرد انعكاس للمدخلات، بل تطور نحو ما يشبه التفكير الاستراتيجي، وهذا ما يدعو إلى الحذر في الاستخدام، والتشديد على الشفافية، وتطوير أدوات رقابة مناسبة قبل فوات الأوان.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً