علوم وتكنولوجيا

الاحتيال عبر تزييف الأصوات يدخل مرحلة خطرة.. مكالمات حقيقية

عملية التزييف للصوت تجري بصورة فورية عند الحديث- CC0
كشف باحثون في شركة الأمن السيبراني NCC Group عن نجاح تجارب لهجمات تصيد صوتي تعتمد على استنساخ الصوت في الزمن الحقيقي، ما يفتح الباب أمام جيل جديد من الاحتيال قد يصعب اكتشافه حتى من قبل أكثر المستخدمين حذرا.

وأوضح الباحثون أنهم تمكنوا خلال التجارب من الوصول إلى بيانات حساسة وتنفيذ إجراءات خطيرة مثل إعادة تعيين كلمات المرور وتغيير عناوين البريد الإلكتروني، وكل ذلك عبر مكالمات صوتية تبدو صادرة من زميل أو مدير حقيقي.

التقنية المستخدمة تقوم على تمرير صوت المهاجم إلى معدل آني يعتمد على الذكاء الاصطناعي، ليخرج الصوت مطابقا لصوت شخص آخر مباشرة، دون الحاجة لتسجيلات مسبقة أو أنظمة تحويل نص إلى كلام (TTS)، كما كان متبعا في السابق. الأخطر أن هذا النظام يمكن دمجه بسهولة في تطبيقات الاتصال الشهيرة مثل Microsoft Teams وGoogle Meet، مع إمكانية تزوير رقم المتصل لإضفاء مزيد من المصداقية على المكالمة.


وأكد الباحثون أن تنفيذ هذه الهجمات لا يتطلب تجهيزات متطورة أو ميزانيات كبيرة؛ فالأدوات المتوفرة حاليا "جيدة بما يكفي" لتنفيذ عمليات خداع مقنعة، ما يجعل التهديد في متناول الأفراد والمجموعات الصغيرة، وليس مقتصرا على جهات احترافية.

ويحذر متخصصون من أن استنساخ الصوت في الزمن الحقيقي يمثل قوة مضاعفة للهجمات الاحتيالية، إذ يمنح المهاجم قدرة على التفاعل الفوري، تعديل النبرة، والإجابة على الأسئلة بطريقة طبيعية تزيد من صعوبة اكتشاف الخداع.

وتشير التوقعات إلى أن أغلب هجمات الاحتيال الصوتي قد تصبح مدعومة بالذكاء الاصطناعي بحلول عام 2026.

ويتوقع الخبراء أن المرحلة التالية الأكثر خطورة ستكون دمج هذه التقنيات مع الفيديو المزيف (Deepfake Video)، ما قد يجعل من الصعب التمييز بين الشخص الحقيقي والمحتال حتى في مكالمات الفيديو.