جاكرتا - تحقق الشرطة في دولة الإمارات العربية المتحدة في قضية يزعم أن الذكاء الاصطناعي استخدمت فيها لاستنساخ صوت مدير شركة وسرقة 35 مليون دولار أمريكي (492 مليون روبية) في عملية سرقة واسعة النطاق.
في حين أن هذه جريمة مذهلة وغير عادية ، إلا أنها ليست المرة الأولى التي يستخدم فيها المحتالون الانتحال الصوتي القائم على الذكاء الاصطناعي لتنفيذ عملية سرقة جريئة.
حدث مثال سابق على استخدام هذه التكنولوجيا لعمليات احتيال مماثلة في عام 2019 ، عندما قيل إن المجرمين في المملكة المتحدة استخدموا برامج deepfake لمحاكاة صوت الرئيس التنفيذي لشركة طاقة لتحويل حوالي 243،000 دولار عن طريق الاحتيال.
وفي حين أنه من المتوقع أن يفتح الذكاء الاصطناعي موجة من الفرص في السنوات المقبلة، فإن التهديدات التي تشكلها التكنولوجيا حقيقية للغاية أيضا.
غالبا ما يعتبر فقدان الوظائف مدفوعا بالأتمتة القضية الأكثر إلحاحا مع الذكاء الاصطناعي ، ولكن التكنولوجيا تشكل أيضا تحديات خطيرة في مجالات أخرى ، بما في ذلك تهديدات الخصوصية مع الاستخدام المتفشي للتعرف على الوجه ، وأسئلة الصوت والفيديو التي تم إنشاؤها عن طريق التلاعب بالصوت والمماهة.
في حين أن الأول يميل إلى كسب الاهتمام في وسائل الإعلام الرئيسية, هذا الأخير يشكل أيضا تهديدا كبيرا, كما تظهر هذه القضية احتيال.
وكما ذكرت مجلة فوربس، فإن أحدث مثال على التلاعب بالأصوات المستخدم في الاحتيال حدث في الإمارات العربية المتحدة في أوائل عام 2020، عندما استخدم المجرمون الذكاء الاصطناعي لاستنساخ أصوات مديري الشركات لمطالبة مديري البنوك بتحويل أموال بقيمة 35 مليون دولار أمريكي لعمليات الاستحواذ.
قام مدير البنك على النحو الواجب بالتحويل معتقدا أن كل شيء كان شرعيا ، ليدرك لاحقا أنه كان عملية احتيال معقدة دبرها مجرمون من ذوي التقنية العالية. كما اتضح، وقد استخدمت المحتالين "صوت عميق" التكنولوجيا لمديري احتيال والبنوك احتيال من مبالغ ضخمة.
الإمارات تطلب المساعدة من السلطات الأمريكية
ووفقا لوثائق المحكمة، يسعى المحققون في الإمارات العربية المتحدة الآن للحصول على مساعدة من السلطات الأمريكية لتعقب 400 ألف دولار من الأموال المسروقة التي يعتقدون أنها محتجزة في حسابات مصرفية أمريكية. ويعتقد أن الأموال المتبقية موجودة في العديد من المصارف المختلفة ذات الأسماء المختلفة في بلدان مختلفة من العالم. ووفقا للسلطات الإماراتية، شارك ما لا يقل عن 17 شخصا في المخطط، على الرغم من عدم وضوح أسمائهم وجنسياتهم على الفور.
وفي حديثه إلى مجلة فوربس، قال جيك مور، الخبير في شركة ESET للأمن السيبراني، إن تقنية "deepfake" الصوتية والفيديوية يمكن أن تكون مشكلة حقيقية في الأيدي الخطأ، حيث تشكل الحيوانات العميقة "تهديدا كبيرا للبيانات والمال والأعمال". ويضيف مور أيضا أن عددا متزايدا من الشركات من المرجح أن تقع ضحية لعمليات احتيال صوتية واقعية مماثلة في المستقبل.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)