الثلاثاء، 11 نوفمبر 2025

02:04 م

سبب رفض ChatGPT الاعتراف بعدم المعرفة دائمًا

ChatGPT

ChatGPT

ياسين عبد العزيز

A A

كشفت دراسة حديثة عن ظاهرة غريبة في نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT، حيث تميل هذه النماذج إلى اختلاق المعلومات أو “هلوسة الحقائق” بدلاً من الاعتراف بعدم المعرفة، ويرجع السبب إلى الطريقة التي صُممت بها الخوارزميات، إذ تُحفز على تقديم إجابات بثقة حتى عند غياب المعلومات الدقيقة، ما يجعلها تبدو واثقة بينما تقدم بيانات خاطئة أحيانًا، وتعد هذه الظاهرة من أبرز التحديات التي تواجه الذكاء الاصطناعي، خصوصًا مع انتشار استخدامه في المجالات الحساسة مثل الطب والقانون.

تخمين الإجابات

أوضح الباحثون في OpenAI أن سبب هذه الهلوسة يعود إلى “حوافز خاطئة” داخل نماذج الذكاء الاصطناعي، حيث يتم تقييم النموذج على مدى دقة الإجابات فقط، ما يشجع على التخمين بدلًا من قول “لا أعرف”، وشبّه الباحثون هذه الحالة بطالب في اختبار متعدد الخيارات يفضل التخمين العشوائي على ترك السؤال فارغًا لتجنب خسارة النقاط.

كما أن النماذج تتعلم التنبؤ بالكلمة التالية استنادًا إلى كميات ضخمة من النصوص، إلا أن هذه البيانات غالبًا ما تكون غامضة أو ناقصة، مما يؤدي إلى تقديم إجابات مختلقة عند غياب المعلومات الواضحة.

هلوسة معلومات

تشير الدراسة إلى أن معدل الهلوسة يزداد بشكل ملحوظ عند طرح أسئلة لا تتوفر لها إجابات دقيقة أو تعتمد على بيانات ناقصة، إذ تضطر النماذج إلى “تخمينات استراتيجية” لتحسين الأداء الظاهري، لكنها في الوقت نفسه ترفع معدلات الأخطاء، ويمكن أن تقدم معلومات ملفقة بثقة كبيرة بدلًا من الاعتراف بعدم اليقين.

ويؤكد الباحثون أن هذه الظاهرة لا تقتصر على النماذج القديمة، بل تظهر أيضًا في أحدث الإصدارات المتقدمة، ما يضع تحديًا كبيرًا أمام الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات الحرجة.

حلول مستقبلية

اقترح الفريق البحثي حلولًا عملية للحد من هذه المشكلة، تتمثل في إعادة تصميم نظام تقييم النماذج بحيث يُعاقب النموذج عند تقديم أخطاء واثقة أكثر من العقوبة على إظهار التردد أو الشك، مع منح نقاط جزئية عند التعبير عن عدم اليقين.

وشبّه الباحثون هذا النهج بنظام الامتحانات الذي يخصم درجات عن الإجابات الخاطئة ويمنح جزئيًا لمن يترك السؤال فارغًا، بهدف تشجيع الدقة على حساب التخمين، وأكدت الدراسة أن تبني هذه الطريقة قد يمهد الطريق لنماذج لغوية أكثر موثوقية وتوازنًا في المستقبل.

في الختام، تبرز الدراسة أن ظاهرة اختلاق الحقائق في ChatGPT وأنظمة الذكاء الاصطناعي ليست مجرد خطأ تقني، بل نتيجة طبيعية لحوافز التصميم الحالية، ومع تعديل هذه الحوافز يمكن أن تتحسن دقة النماذج، وتصبح أكثر شفافية في مواجهة الغموض، ما يعزز الثقة في استخدامها ويقلل من مخاطر نشر معلومات مضللة أو ملفقة.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً