الثلاثاء، 05 مايو 2026

10:14 م

احتيال بتقنية التزييف العميق يستهدف شركة مالية كبيرة

 تقنية التزييف العميق

تقنية التزييف العميق

رضوي جمال

A A

وفقًا لما نقلته صحيفة "ساوث تشاينا مورنينغ بوست"، قام محتالون باستخدام تقنية التزييف العميق لإنشاء شخصية المدير المالي لشركة، خلال مؤتمر فيديو افتراضي. ظهرت الشخصية المزيفة أمام الموظفين وكأنها تتحدث من مكتب الشركة في لندن، وطلبت منهم إجراء 15 تحويلًا ماليًا إلى خمسة حسابات مصرفية في هونغ كونغ، بإجمالي مبلغ يصل إلى 200 مليون دولار هونغ كونغ (26 مليون دولار أميركي).

بعد ذلك، تبين أن موظفي الشركة وقعوا ضحية لعملية احتيال، حيث تم استخدام تقنيات الذكاء الاصطناعي لتزييف هيئة وصوت المدير المالي باستخدام صوره ولقطات فيديو سابقة له.

كما أضافت الصحيفة أن الإدارة المالية للشركة تلقت في منتصف يناير رسالة منتحلة هوية المدير المالي للشركة ومقره المملكة المتحدة، تدعو إلى اجتماع فيديو افتراضي مشفر. خلال هذا الاجتماع، تم انتحال هوية الرئيس المالي وتم الإيقاع بالضحايا، مما أدى إلى خسارة مالية كبيرة.

ارتفاع وتيرة الجرائم الإلكترونية باستخدام الذكاء الاصطناعي

يشهد العالم ارتفاعًا ملحوظًا في جرائم التزييف العميق منذ عام 2017، والتي تتم بواسطة تكنولوجيا الذكاء الاصطناعي. هذه الجرائم بدأت بتزييف الأصوات ومقاطع الفيديو، مما أدى إلى استخدام هذه التقنية بشكل متزايد في الأنشطة الاحتيالية.

في عام 2022، أفاد 66% من المتخصصين في مجال الأمن السيبراني بأنهم واجهوا هجمات التزييف العميق داخل مؤسساتهم. تتضمن هذه الهجمات إرسال رسائل مزيفة تحمل أصوات المديرين تطالب بطلبات عاجلة لتحويل أموال أو كشف معلومات حساسة، مما يعرض المؤسسات لمخاطر مالية وأمنية كبيرة.

الاعتماد المتزايد على تكنولوجيا الذكاء الاصطناعي في الجرائم الإلكترونية يبرز الحاجة الماسة لتعزيز تدابير الأمن السيبراني وتطوير آليات كشف التزييف العميق لحماية المؤسسات والأفراد من هذه التهديدات المتنامية.

search

أكثر الكلمات انتشاراً