الثلاثاء، 16 سبتمبر 2025

07:14 م

tru

أنثروبيك تثير الجدل بقرارها حول بيانات مستخدمي Claude

Claude

Claude

ياسين عبد العزيز

A A

أعلنت شركة أنثروبيك عن تغييرات جوهرية في سياسات استخدام بيانات مستخدمي منصتها الشهيرة Claude، حيث طلبت من المستخدمين تحديد ما إذا كانوا يرغبون في السماح باستخدام محادثاتهم ضمن عمليات تدريب الذكاء الاصطناعي المستقبلية، على أن يكون أمامهم مهلة حتى 28 سبتمبر لاتخاذ القرار.

ويأتي هذا التغيير في إطار قواعد جديدة تنظم مسألة الاحتفاظ بالبيانات وطرق الموافقة، مع منح حرية الرفض لمن لا يرغب في مشاركة محتوى محادثاته.

سياسة جديدة

حتى وقت قريب، التزمت أنثروبيك بعدم إدراج محادثات المستخدمين ضمن عمليات تدريب نماذجها، إذ كانت البيانات تمسح تلقائيا بعد ثلاثين يوما ما لم تكن هناك أسباب قانونية أو حالات إبلاغ عن انتهاكات، إلا أن التوجه الجديد يقلب هذه السياسة رأسا على عقب، حيث تعتزم الشركة الاحتفاظ بالبيانات لمدة تصل إلى خمس سنوات، مع إمكانية إدراج المحادثات وجلسات الترميز في عمليات التدريب، في حال لم يفعّل المستخدم خيار الانسحاب بنفسه، وهو ما اعتبره مراقبون تحولا جذريا في تعامل الشركة مع خصوصية بيانات العملاء.

نطاق التغيير

تشمل التحديثات مستخدمي النسخ المختلفة من Claude سواء كانت مجانية أو مدفوعة مثل Free وPro وMax، إضافة إلى نسخة Claude Code الموجهة للمطورين.

بينما أكدت الشركة أن عملاء المؤسسات، بما في ذلك الحكومات والشركات التعليمية والجهات التي تعتمد على واجهات API، لن يتأثروا بالسياسة الجديدة، وهو ما يضع المستخدمين الأفراد في صدارة هذه التجربة، في خطوة توازي ما اتخذته شركات كبرى مثل OpenAI التي حافظت على خصوصية عملاء الأعمال بشكل خاص.

دوافع خفية

تؤكد أنثروبيك أن الهدف الأساسي من هذه السياسة هو تحسين دقة وأمان النماذج وتعزيز قدراتها في مجالات الترميز والتحليل والاستدلال، مشيرة إلى أن مساهمة المستخدمين في مشاركة بياناتهم ستساعد في تطوير أنظمة أكثر ذكاء وفاعلية.

لكن محللين يرون أن هذه الخطوة تعكس أيضا حدة المنافسة المتصاعدة بين شركات الذكاء الاصطناعي، حيث تمثل البيانات الواقعية كنزا لا غنى عنه لبناء نماذج متطورة، وهو ما قد يمنح أنثروبيك تفوقا إضافيا على منافسين بارزين مثل OpenAI وجوجل.

Claude

جدل حول الموافقة

رغم التبريرات الرسمية، أثارت آلية الحصول على الموافقة كثيرا من الجدل، فالمستخدمون الجدد سيجدون خيار الموافقة ضمن إجراءات التسجيل، بينما سيواجه المستخدمون الحاليون نافذة منبثقة تتضمن زر “قبول” بارزا، في حين يظل خيار الانسحاب أصغر حجما وأقل وضوحا، ما يجعل احتمالية موافقة المستخدمين دون إدراك كامل عالية، وهو ما دفع خبراء الخصوصية للتحذير من أن تصميم آليات الموافقة بهذا الشكل قد يضعف من مصداقية مبدأ “الموافقة الحرة والمستنيرة”.

تحذيرات تنظيمية

يؤكد خبراء قانونيون أن السياسات المعقدة واللغة التقنية الغامضة قد تجعل من الصعب على المستخدمين فهم ما يوافقون عليه، وهو ما قد يتعارض مع القوانين التي تشدد على ضرورة وضوح البيانات، وقد دخلت لجنة التجارة الفيدرالية الأمريكية على خط النقاش، محذرة شركات الذكاء الاصطناعي من تغيير سياسات البيانات بشكل هادئ أو إخفاء تفاصيل جوهرية في صفحات فرعية لا يطّلع عليها معظم المستخدمين، وهو ما يضع أنثروبيك أمام اختبار حقيقي في قدرتها على التوفيق بين مصالحها التجارية وحماية حقوق مستخدميها.

في النهاية، يقف ملايين المستخدمين اليوم أمام قرار صعب، بين المشاركة في بناء أنظمة ذكاء اصطناعي أكثر تقدما، أو التمسك بحقهم في الخصوصية والانسحاب من التجربة، بينما يبقى التحدي الأبرز أمام أنثروبيك هو إثبات التزامها بالشفافية والوضوح، في وقت تتزايد فيه المخاوف من أن تتحول البيانات الشخصية إلى وقود رئيسي لصراع السيطرة على مستقبل الذكاء الاصطناعي.

Short URL
استطلاع رأى

هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟

  • نعم

  • لا

  • غير مهتم

search

أكثر الكلمات انتشاراً