نموذج "لاما 2" تحت المجهر.. كيف استُخدم الذكاء الاصطناعي في تهديد مستقبل الموظفين الفيدراليين؟

ميتا
ياسين عبد العزيز
في خطوة أثارت جدلاً واسعًا في الأوساط التقنية والسياسية على حد سواء، كشفت تقارير إعلامية موثوقة عن استخدام نموذج ذكاء اصطناعي قديم تابع لشركة "ميتا" – يُعرف باسم LLaMA 2 – في تقييم ردود ملايين الموظفين الفيدراليين الأمريكيين على سياسات العمل الجديدة.
هذا الاستخدام لم يتم عبر إدارة تقنية أو قسم تطوير، بل من خلال جهة حكومية غير معروفة على نطاق واسع تُدعى "مكتب كفاءة الحكومة" أو DOGE، وهي جهة تتبع إداريًا لمكتب إدارة شؤون الموظفين.
الهدف من هذا التقييم لم يكن تحسين بيئة العمل أو تطوير الأداء، بل تحديد مدى امتثال الموظفين لسياسة العودة الإلزامية إلى المكاتب أو نيتهم الاستقالة ضمنيًا، استنادًا إلى رسائل إلكترونية مثيرة للجدل جرى تداولها داخليًا.
رسالة مفترق الطرق
بدأت القصة أواخر شهر يناير، عندما وصلت إلى الموظفين الفيدراليين رسالة غير مسبوقة عُرفت لاحقًا باسم "مفترق الطرق"، استلهمت نَصها من رسالة شهيرة أرسلها إيلون ماسك لموظفي "تويتر" بعد استحواذه على المنصة.
نص الرسالة كان واضحًا ومباشرًا: إمّا الالتزام بالسياسات الجديدة، أو اعتبار الاستجابة السلبية بمثابة استقالة طوعية.
ومع تصاعد التوتر، تسربت أنباء عن قيام جهة داخل الحكومة بتحليل ردود الموظفين بشكل آلي باستخدام الذكاء الاصطناعي.
وقد أكدت مراجعة نشرها موقع Wired هذه الأنباء لاحقًا، مشيرة إلى أن النموذج المستخدم كان نسخة LLaMA 2، التي طوّرتها "ميتا" وتم طرحها كمصدر مفتوح العام الماضي.
ماضٍ جدلي للنموذج
ما زاد من صدمة المتابعين أن نموذج لاما 2 سبق أن ارتبط بأزمة كبرى في نوفمبر 2024، حين استُخدم في مشاريع ذكاء اصطناعي خاصة بالجيش الصيني، مما دفع واشنطن للاحتجاج بشدة على ميتا.
وقد حاولت الشركة حينها تقليل حجم الأزمة، مؤكدة أن استخدام النموذج كان دون إذن منها، لكنها عادت لتُغيّر استراتيجيتها، وبدأت التعاون رسميًا مع شركات كبرى مثل أمازون ومايكروسوفت وIBM وOracle، لتوفير نسخ معدّلة من نموذجها للوكالات الحكومية الأمريكية.

هذه السابقة جعلت البعض يتساءل: إذا كان هذا النموذج مُتاحًا بشكل مفتوح، فهل يمكن لأي جهة حكومية – أو حتى خاصة – استخدامه دون إشراف؟
الذكاء وسوء الاستخدام
أحد أكثر الجوانب إثارة للقلق هو سهولة الوصول لنموذج لاما 2، ما يفتح الباب أمام سوء الاستخدام داخل الجهات الإدارية دون رقابة مركزية.
وبينما لم تؤكد التقارير ما إذا كانت الردود الأسبوعية الجديدة للموظفين – التي طُلب منهم إرسالها بعد رسالة "مفترق الطرق" – خضعت أيضًا لتحليل آلي، إلا أن مؤشرات كثيرة ترجّح استمرار استخدام الخوارزميات ذاتها.
هذه الإجراءات عززت المخاوف بين الموظفين من تحول الذكاء الاصطناعي إلى أداة تقييم غير عادلة، تُستخدم لفصلهم بناء على معايير غير واضحة وغير خاضعة للمساءلة.
غضب سياسي وتحقيق وشيك
في شهر أبريل الماضي، اشتعل المشهد أكثر بعد أن وجّه أكثر من أربعين عضوًا في الكونغرس رسالة رسمية إلى مدير مكتب الميزانية في البيت الأبيض.
وطالب النواب بفتح تحقيق عاجل في ممارسات DOGE، متهمين الجهة باستخدام نماذج غير مرخصة، منها Grok-2 من شركة xAI التابعة لإيلون ماسك، إلى جانب أداة AutoRIF التي يُشتبه في استخدامها لتسهيل عمليات فصل جماعي.
كما تضمنت الرسالة تحذيرات من تضارب المصالح، وتهديد خصوصية بيانات الموظفين، خاصة في ظل غياب ضوابط تنظيمية واضحة لاستخدام الذكاء الاصطناعي في القرارات المصيرية.
بين الكفاءة والفصل
ورغم تأكيد الإدارة الأمريكية أن تحليل البيانات تم محليًا دون إرسال أي معلومات إلى الإنترنت، فإن الخبراء السياسيين والتقنيين يشددون على خطورة هذا المسار، خصوصًا في غياب معايير شفافة تحدد آلية استخدام الذكاء الاصطناعي في تقييم الأداء.
وقد دعت أطراف عدة إلى تجميد جميع مشاريع الذكاء الاصطناعي الحكومية مؤقتًا إلى حين وضع إطار قانوني صارم.
وفي المقابل، ترى جهات مثل مكتب الميزانية أن الذكاء الاصطناعي قد يُستخدم لتحقيق كفاءة أعلى وتخفيض التكاليف، لكنها تغفل – كما يرى البعض – عن التبعات الاجتماعية والوظيفية لاستخدام خوارزميات لا يمكن ضمان حيادها الكامل.
إن هذا الملف يُسلّط الضوء على تقاطع حساس بين التقنية والسياسة والإدارة، ويطرح أسئلة وجودية حول حدود الذكاء الاصطناعي في العمل الحكومي، والكيفية التي يمكن بها تحقيق الكفاءة دون التضحية بالعدالة والخصوصية.
أخبار ذات صلة
الأكثر مشاهدة
أحدث الموبايلات
-
Apple iPhone 13 Pro Max
-
Xiaomi Redmi Note 11
-
Samsung Galaxy A52s
-
OPPO Reno6 Pro 5G
-
realme GT2 Pro
-
vivo Y19
-
Honor 50 Pro
-
Huawei Nova 9
-
Nokia 8.3 5G
هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟
-
نعم
-
لا
-
غير مهتم
أكثر الكلمات انتشاراً