استخدم محتالون تقنية الذكاء الاصطناعي في خداع عدد من الضحايا، عبر تقليد أصوات أقارب لهم لطلب المال والمساعدة، وبدا الأمر مقنعاً للغاية؛ ما جعل بعض الناس يقعون ضحية للاحتيال، وذلك في تطوّر ملفت لهذه التقنية، التي لا تزال السلطات غير قادرة على كشف جميع التزييف الحاصل من خلالها.
صحيفة The Times البريطانية، أشارت الإثنين 6 مارس/آذار 2023، إلى أن برامج الذكاء الاصطناعي استُخدمت في تقليد أصوات لانتحال شخصيات ساسة ومشاهير، وإصدار تصريحات غير حقيقية على لسانهم، لكن الأمر تطور إلى استهداف العوام من الناس.
بنجامين باركر (39 عاماً) من مدينة ألبرتا الكندية، قال إن والديه تلقيا مكالمة من شخص عرّف نفسه بأنه محامٍ، وقال المتصل إن ابنهما متورط في حادث سيارة أسفر عن مقتل دبلوماسي أمريكي، وإنه الآن في السجن.
بعد ذلك، وضع المتصل ابنهما على الخط، وقال إنه يحبهما ويحتاج منهما مبلغ 21 ألف دولار كندي قبل جلسة المحكمة في اليوم التالي.
أشار باركر إلى أن المكالمة ربما تبدو مريبة، لكنه أكد أن الصوت على الهاتف بدا مثل صوته تماماً، فسارع الزوجان إلى سحب أموال من عدة بنوك ثم أرسلا المبلغ للمحامي المزعوم بعملة البيتكوين، حسب طلبه.
صُدم الوالدان عندما تلقيا مكالمة من باركر نفسه، الذي لم يكن يعرف ما يتحدثان عنه، فهو الآخر لا يعرف من أين حصل هؤلاء المحتالون على صوته، رغم أن برامج الذكاء الصناعي يمكنها تقليد الصوت بدقة من بضع جمل من كلامه، وقال إن "بريد الهاتف الصوتي ربما يكون كافياً، وبريدي الصوتي مدته 30 أو 35 ثانية. وهذا أكثر من كافٍ".
بعدها بإمكان هذه البرامج التي تعتمد على الذكاء الاصطناعي، والتي يتوفر بعضها مجاناً على الإنترنت، توليد نفس الصوت في قراءة نص معين. وقال باركر إن المحتالين يستهدفون كبار السن على ما يبدو، بعد أن يبحثوا في أسماء أقاربهم المباشرين ويختاروا أحدهم لانتحال هويته.
أضاف باركر: "أنا عادة من أخبرهم إن كانت عملية احتيال أم لا. في كل مرة يقول والداي: (هذا يبدو مريباً)، أظهر أنا في المكالمة الهاتفية لأقول: (لا، لا بأس، تحويلات البيتكوين شيء طبيعي)".
تُشير صحيفة The Washington Post، إلى أنه في عام 2022، كان انتحال أصوات الأشخاص ثاني أكثر عمليات الاحتيال شيوعاً في أمريكا.
وصل عدد البلاغات إلى أكثر من 36 ألفاً، وتعلقت بأشخاص تعرضوا لاحتيال من آخرين يتظاهرون بأنهم أصدقاء أو أفراد في العائلة، وفقاً لبيانات من لجنة التجارة الفيدرالية.
مسؤولون في اللجنة، قالوا إن أكثر من 5100 من هذه الحوادث وقعت عبر الهاتف، وأدت إلى خسائر تزيد على 11 مليون دولار.
من جانبهم، يقول الخبراء إن جهات التنظيم الفدرالية وإنفاذ القانون والمحاكم غير مهيأة لكبح عمليات الاحتيال؛ إذ إن معظم الضحايا لا يملكون خيوطاً كثيرة لتوصيلهم إلى الجاني ومن الصعب على الشرطة تتبع المكالمات والأموال من المحتالين النشطين على مستوى العالم، فضلاً عن أن السوابق القضائية التي تقاضي الشركات صاحبة هذه الأدوات قليلة.
كانت شركة ElevenLabs قد تصدرت الأخبار بعد انتقادات لأداتها، التي استُخدمت في تقليد أصوات مشاهير ليقولوا أشياء لم يقولوها فعلياً؛ مثل إيما واتسون التي سُمع صوتها وهي تقتبس بضع جمل من كتاب "كفاحي" لأدولف هتلر.
أشارت صحيفة The Times، إلى أن ElevenLabs لم ترد على طلب للتعليق، لكنها قالت في مجموعة تغريدات على تويتر، إنها تعمل على فرض إجراءات وقائية لوقف إساءة استخدام برنامجها؛ مثل منع المستخدمين المجانيين من توليد أصوات بعينها وإطلاق أداة لاكتشاف الصوت المولد من الذكاء الاصطناعي.
من جهته، يقول هاني فريد، أستاذ الطب الشرعي الرقمي في جامعة كاليفورنيا في بيركلي، إنه على المحاكم محاسبة شركات الذكاء الاصطناعي لو تسببت منتجاتها في حدوث أضرار.
كذلك قال قضاة؛ مثل قاضي المحكمة العليا، نيل إم جورسوش، في فبراير/شباط إن الغطاء القانوني الذي يحمي الشبكات الاجتماعية من المحاسبة القضائية ربما لا ينطبق على برامج الذكاء الاصطناعي.