دراسة جديدة: أسلوب المستخدمين المحرك الخفي لهلوسات الذكاء الاصطناعي

المستخدمين
ياسين عبد العزيز
رغم أن تقنيات الذكاء الاصطناعي أصبحت جزءًا أساسيًا من حياتنا اليومية، تقدم المساعدة في مجالات الكتابة، والبرمجة، والتعليم، إلا أنها ما تزال تواجه مشكلة تُعرف بـ “الهلوسات”، وهي ظاهرة تنتج فيها الأنظمة إجابات أو معلومات غير صحيحة أو مختلقة بالكامل.
دراسة حديثة كشفت أن هذه الظاهرة لا تعود فقط إلى طريقة عمل النماذج اللغوية، بل إن للمستخدمين أنفسهم دورًا محوريًا في حدوثها.
نشرت الدراسة، التي أُجريت في الثالث من أكتوبر على موقع arXiv.org، تحت عنوان “Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions”، نتائج مثيرة حول تأثير اللغة البشرية على دقة الذكاء الاصطناعي.
وأوضحت أن الفجوة اللغوية بين أسلوب تفاعل المستخدمين مع الآلة وأسلوب تفاعلهم مع البشر تمثل عاملًا خفيًا في ظهور هذه الأخطاء.
اختلاف الأسلوب
قام الباحثون بتحليل أكثر من ثلاثة عشر ألف محادثة بين البشر، إلى جانب 1,357 تفاعلًا حقيقيًا بين المستخدمين وروبوتات المحادثة، ووجدوا أن المستخدمين يغيّرون لغتهم بشكل كبير عند التعامل مع الذكاء الاصطناعي، حيث تميل رسائلهم لأن تكون أقصر، وأقل تهذيبًا، وأحيانًا تفتقر للدقة اللغوية، مع استخدام مفردات محدودة، هذا التباين في الأسلوب يؤدي إلى صعوبة فهم النموذج اللغوي للنية الحقيقية للمستخدم، وبالتالي تزداد فرص “الهلوسة”.
وركزت الدراسة على ستة أبعاد لغوية أساسية، منها القواعد النحوية، وتنوع المفردات، ومستوى اللباقة، ووضوح المعلومات.
وتبيّن أن مستوى القواعد في المحادثات البشرية كان أعلى بنسبة تفوق 5%، بينما ارتفع مستوى اللباقة بأكثر من 14% مقارنة بالمحادثات مع الذكاء الاصطناعي.
وعلى الرغم من أن كمية المعلومات كانت متقاربة في الحالتين، إلا أن أسلوب المستخدمين مع الأنظمة بدا أكثر جفافًا وأقل تفصيلًا.
تحوّل الأسلوب
أطلق الباحثون على هذه الظاهرة اسم “تحوّل الأسلوب”، وهي إشارة إلى الطريقة التي يبدّل بها المستخدم نبرته وأسلوبه عند مخاطبة الذكاء الاصطناعي.
وأوضح التقرير أن النماذج اللغوية مثل ChatGPT وClaude تم تدريبها على بيانات تحتوي على لغة مهذبة وواضحة البنية، مما يجعلها عرضة لسوء الفهم عندما تواجه نصوصًا مختصرة أو غير دقيقة لغويًا.
بعبارة أخرى، عندما يتحدث المستخدم بلغة حادة أو غامضة، فإن النظام يحاول ملء الفراغات أو تخمين المعنى، وغالبًا ما يؤدي ذلك إلى توليد معلومات غير صحيحة.
وقد اعتبر الباحثون أن هذه النقطة تفتح بابًا جديدًا لفهم سلوك الذكاء الاصطناعي بوصفه نتاجًا مباشرًا لتفاعل المستخدم معه.
حلول مقترحة
اقترح فريق البحث مجموعة من الحلول التي تستهدف تحسين العلاقة التفاعلية بين الإنسان والآلة، من جهة المطورين، يمكن تدريب النماذج على مجموعة أوسع من الأساليب اللغوية لتصبح أكثر مرونة في فهم نوايا المستخدمين، وهو ما قد يرفع مستوى الدقة بنسبة تصل إلى 3%.
كما اختبر الباحثون أسلوبًا يعتمد على إعادة صياغة مدخلات المستخدم تلقائيًا أثناء المحادثة، لكنهم لاحظوا أن هذا الحل قلل من دقة الإجابات قليلًا، نظرًا لفقدان بعض التفاصيل العاطفية والسياقية.
لذلك، أوصت الدراسة بالاعتماد على ما أسمته “التدريب الواعي بالأسلوب”، وهو نهج يقوم على تعليم الذكاء الاصطناعي التعرّف على اختلاف نبرة المستخدم ونمطه اللغوي دون فقدان المعنى أو الانحراف عن الدقة.
من ناحية أخرى، أوصت المستخدمين بالتحدث إلى الذكاء الاصطناعي كما يتحدثون إلى إنسان حقيقي، باستخدام جمل كاملة، واحترام القواعد اللغوية، مع الحفاظ على نبرة واضحة وهادئة أثناء الحوار.
وفي الختام، يبدو أن مستقبل الذكاء الاصطناعي لن يعتمد فقط على قوة خوارزمياته أو كمية البيانات التي يتدرب عليها، بل أيضًا على جودة التواصل الإنساني معه، فالمستخدم، بوعيه اللغوي وأسلوبه، قد يكون المفتاح لتقليل الأخطاء وتحقيق تفاعل أكثر ذكاءً وواقعية بين الإنسان والآلة.
أخبار ذات صلة
الأكثر مشاهدة
أحدث الموبايلات
-
Apple iPhone 13 Pro Max
-
Xiaomi Redmi Note 11
-
Samsung Galaxy A52s
-
OPPO Reno6 Pro 5G
-
realme GT2 Pro
-
vivo Y19
-
Honor 50 Pro
-
Huawei Nova 9
-
Nokia 8.3 5G
هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟
-
نعم
-
لا
-
غير مهتم
أكثر الكلمات انتشاراً