رئيس التحرير هيثم سليمان مدير التحرير محمد سليمان

اعلان جانبي  يسار
اعلان جانبي يمين

تزييف الصوت بالذكاء الاصطناعي.. 5 نصائح تحميك من الاحتيال

انتشر خلال الآونة الأخيرة، نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يسمّى “احتيال التزييف” أو “التلاعب الصوتي”.

ويتم ذلك عبر استقبال الاتصالات الهاتفية الطارئة، خاصةً التي يُطلب منك فيها تحويل أموال، أو الإدلاء بمعلومات حسّاسة، حتى لو كان الصوت كصوت أقاربك أو أصدقائك.
لكن يُمكنك النجاة منه لو انتبهت لهذه المستجدات، واتبعت النصائح التي يُدلي بها خبيران في الأمن السيبراني وتكنولوجيا المعلومات في تصريحات لموقع “سكاي نيوز عربية”.

أداة لاستنساخ الصوت

كانت شركة “أوبن إيه آي”، المتخصصة في الذكاء الاصطناعي التوليدي، ومبتكرة برنامج المحادثة الشهير “تشات جي بي تي”، عرضت، مارس الماضي، أداة لاستنساخ الصوت سيكون استخدامها محدودًا لتفادي عمليات الاحتيال.
والأداة التي سُمّيت بـ”فويس إنجين” أو “محرك الصوت” قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، حسب ما ذكر بيان لـ”أوبن إيه آي” تطرّق إلى نتائج اختبار أجري على نطاق صغير.
وأضاف البيان: “ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصا في عام الانتخابات هذا”، وأنه لذلك: “نعمل مع شركاء أمريكيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار”.

تلاعُب وفقد الثقة

وفق خبير الأمن السيبراني وتكنولوجيا المعلومات، محمد خليف، فإنّه بات “مِن السهل جدًا” استخدام الذكاء الاصطناعي لإجراء اتصالات هاتفية بأصوات تبدو مألوفة للأشخاص، وهذا يُسمّى بـ”التزييف الصوتي” أو “التلاعب الصوتي”.
وعن طريقة صُنع هذا الصوت المزيّف، يقول خليف إنه يتم ببرامج الذكاء الاصطناعي لتقليد أصوات معروفة أو مأخوذة من وسائل التواصل الاجتماعي.
ومِن الأمور الخطرة التي يُستخدم فيها هذا التزييف، الاحتيال على الضحايا في طلبات مالية عاجلة، بإيهامهم أن المتصل شخص معروف لهم، كما يوضّح خليف، الذي يُحذر من أن هذه الاستخدامات قد تُفقد الأشخاص الثقة في العالم الرقمي؛ ما يؤثّر بالسلب على وتيرة التحوّل الرقمي.
ويدعو خبير الأمن السيبراني وتكنولوجيا المعلومات، تامر محمد، إلى توخي الحذر في الاتصالات التي نتلقّاها، قائلا إن “الاتصالات الهاتفية بواسطة الذكاء الاصطناعي انتشرت شكل كبير جدا، وتوجد تطبيقات تنفّذها دون الحاجة لأن يمتلك المحتال خبرة”.
جدير بالذكر أن عمليات الاحتيال وصلت إلى أشهر الشخصيات في العالم، ومن ذلك أن مستشارا يعمل في الحملة الرئاسية لأحد المنافسين في الحزب الديمقراطي للرئيس الأمريكي، جو بايدن، ابتكر خلال الانتخابات التمهيدية للانتخابات الرئاسية، برنامجًا آليًا انتحل شخصية بايدن، ودعا الصوت المزيّف الناخبين لعدم التصويت في انتخابات نيوهامبشير.
كما تم استنساخ أصوات مشاهير مثل الفنان الإنجليزي ستيفن فراي، وعمدن لندن صادق خان، ونُسب إليهما تصريحات سببت لهما إزعاجًا أو حرجًا، كم تعرّض أحد المديرين التنفيذيين، الذي لم يذكر اسمه، لاحتيال تسبّب في أن يحوّل 243 ألف دولار إلى المحتال بعد تلقي مكالمة هاتفية مزيفة، وفقًا لما ذكرته جريدة “ديلي ميل” البريطانية.

كيف نحمي أنفسنا من الاحتيال؟

لمواجهة هذا التهديد الجديد، يعرض محمد خليف وتامر محمد هذه النصائح عند تلقّي المكالمات الهاتفية، أو الاستماع إلى أصوات دون أن نرى أصحابها:
1 – يجب التشكّك دومًا في صحة الاتصال، حتى لو كان الصوت مألوفًا، خصوصًا عندما يبدو الأمر طارئًا.
2 – حاول التواصل مع الشخص الذي يُفترض أنه المتصل عبر وسيلة اتصال مختلفة تتحقق منها.
3 – احذر أن تقدّم معلومات شخصية أو بيانات مالية خلال مكالمة لم تبدأها أنت بنفسك.
4 – عدم الدخول على رابط حساب أو موقع إلكتروني غير معروف؛ لأنه من خلاله يتم اختراق الهاتف، ويستخدم التسجيلات الصوتية ويعرف صوت الشخص.
5 – عدم الموافقة على شروط أي برنامج دون التأكّد منها ومعرفة التطبيق جيّدًا.

اترك تعليقا