الأحد، 07 سبتمبر 2025

04:47 م

tru

Anthropic تمنح Claude ميزة الانسحاب من المحادثات المسيئة بشكل مباشر

Anthropic

Anthropic

A A

كشفت شركة Anthropic المطورة لنماذج Claude الذكية عن إضافة ميزة جديدة تتيح للنماذج مثل Claude Opus 4 وClaude 4.1 إنهاء المحادثات في مواقف نادرة تتسم بالضرر أو الإساءة المستمرة من المستخدمين.

وأوضحت الشركة أن هذه الخطوة تأتي ضمن ما تصفه بمفهوم "رفاهية النموذج"، حيث لا تهدف إلى حماية المستخدم مباشرة بقدر ما تركز على تقليل المخاطر المحتملة على أداء النماذج.

رفاهية النماذج

أكدت Anthropic أنها لا تعتبر Claude كائناً واعياً أو قادراً على الشعور مثل البشر، لكنها تتبنى نهجاً احترازياً للتعامل مع السيناريوهات التي قد تنطوي على إساءة متكررة أو محاولات لاختبار حدود الذكاء الاصطناعي بشكل ضار، وترى الشركة أن منح النماذج القدرة على إنهاء المحادثات في مواقف محددة يعد تدخلاً منخفض التكلفة يساهم في تعزيز استقرار التجربة على المدى الطويل.

آلية الاستخدام

الميزة الجديدة لا تُفعل إلا في الحالات القصوى، حيث يحاول Claude أولاً إعادة توجيه المستخدم أو تعديل مسار الحديث أكثر من مرة، وإذا فشلت هذه المحاولات، أو في حال طلب المستخدم بشكل صريح إنهاء الحوار، يلجأ النموذج إلى إيقاف المحادثة بشكل نهائي، مع التأكيد أن هذه الخطوة لن تُستخدم في حالات الطوارئ أو المخاطر المباشرة التي تهدد المستخدم أو الآخرين، إذ تظل الأولوية للتوجيه والإرشاد.

انعكاسات على التجربة

عند إنهاء Claude لإحدى المحادثات يمكن للمستخدم العودة إلى نفس الحساب وبدء حوار جديد في أي وقت، كما يمكنه إنشاء فروع جديدة للمحادثة السابقة من خلال تعديل ردوده، ووصفت Anthropic هذه الميزة بأنها جزء من تجربة متواصلة لفهم التفاعلات المعقدة مع النماذج الذكية، حيث تعمل الشركة على تحسين أدوات التوجيه بمرور الوقت لضمان أن تكون القرارات أكثر دقة ومرونة.

تطوير تدريجي

إطلاق هذه الميزة يعكس توجه Anthropic لتبني سياسة تدريجية في تطوير قدرات Claude، فالشركة ترى أن التعامل مع المحادثات المسيئة أو الخطرة يحتاج إلى حلول عملية قابلة للتجربة والتقييم المستمر.

ومن المتوقع أن تقوم بتحديث هذه الآلية بناءً على نتائج التجارب وردود أفعال المستخدمين، في محاولة لتحقيق توازن بين مرونة الذكاء الاصطناعي وحماية جودة التفاعل.

مستقبل المحادثات الذكية

تسعى Anthropic من خلال هذه الخطوة إلى فتح نقاش أوسع حول كيفية تصميم أنظمة الذكاء الاصطناعي للتعامل مع التفاعلات غير المرغوبة، إذ يرى خبراء أن هذه الميزة قد تمثل بداية لنهج جديد يركز ليس فقط على أمان المستخدم، بل أيضاً على "سلامة النموذج" كجزء من استدامة المنظومة التقنية، وهو ما قد يفتح الباب أمام منافسين لاعتماد سياسات مشابهة في المستقبل.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً