أبرزت قدرة مستخدمي الإنترنت على نشر فيديوهات مذبحة نيوزيلندا التي وقعت يوم الجمعة الماضي 15 مارس/آذار 2019، انتصار براعة البشر، وإن كان بصورة مروعة، على الأنظمة المُحوسَبة المصممة لحظر الصور المزعجة التي تحضُّ على العنف والكراهية.
إذ إن الأشخاص الذين احتفوا بالهجوم الإرهابي على المسجدين كانوا قادرين على مواصلة نشر الفيديوهات وإعادة نشرها على مواقع فيسبوك ويوتيوب وتويتر، بالرغم من استخدام هذه المواقع لأنظمةٍ يعمل جانبٌ كبير منها أوتوماتيكياً عن طريق الذكاء الاصطناعي؛ من أجل حظر هذه الفيديوهات. وظلَّت لقطات الهجوم متاحةً للمشاهدة لساعات طويلة، بل ولأيام في بعض الحالات.
وبحسب صحيفة The Washington Post الأمريكية، فلقد سلَّط هذا الفشل الضوءَ على معاناة وادي السيليكون، من أجل تنظيم منصات مربحة للغاية، في ظل استمرار تأثرها بالتلاعب الخارجي، وبالرغم من التعهد لسنواتٍ بتحسين الخدمة.
الحملات الدعائية للتطرف تتفوق
وأثار أيضاً الانتشار المنفلت للفيديوهات المروعة، التي شكَّلت نجاح حملة دعائية لهؤلاء المتطرفين الذين يتبنون الأيديولوجيات البغيضة، تساؤلات حول ما إذا كانت مواقع التواصل الاجتماعي قادرةً على توفير الأمان، دون تقويض نماذج الأعمال التي تعتمد على كمّ وسرعةِ المواد التي يرفعها المستخدمون على هذه المنصات حول العالم. ففي واشنطن ووادي السيليكون، بلور الحادث الشواغل المتزايدة بشأن مدى فشل الحكومات وقوى السوق في ضبط قوة مواقع التواصل الاجتماعي.
قال تريستان هاريس، المسؤول السابق عن أخلاقيات التصميم في شركة جوجل والشريك المؤسس في مركز التكنولوجيا الإنسانية: "إنه وحش فرانكشتاين رقمي غير خاضع للسيطرة".
أجرى هؤلاء الأشخاص، الذين نشروا الفيديو الذي التُقط لهجوم الجمعة، تعديلاتٍ طفيفةً، مثل تغيير درجات اللون أو مدة الفيديو، على فيديو إطلاق النار، الذي نشره في الأساس القاتل المزعوم نفسه، من خلال خدمة البث الحي على صفحته في موقع فيسبوك. وكانت هذه الخدع في الغالب كافية لمراوغة أساليب التحقق، التي تعمل عن طريق أنظمة الذكاء الاصطناعي، وصمَّمتها مجموعة من شركات التكنولوجيا الأكثر تطوراً في العالم لحظر مثل هذا المحتوى.
غير أنه حتى مع إنفاق كل هذه الاستثمارات في مثل هذه التكنولوجيا، يجري في المقابل إنفاق المزيد لضمان مواصلة استخدام منصات التواصل الاجتماعي، باعتبارها نقطة انطلاق قوية لتوصيل الصور والتسجيلات الصوتية والبيانات لأكبر قدر ممكن من الجمهور؛ بغرض تحقيق إيرادات الإعلانات التي تحقق أرباحاً تصل إلى عشرات المليارات من الدولارات سنوياً.
الذكاء الاصطناعي يفشل مجدداً
قالت كاثي أونيل، مؤلفة كتاب Weapons of Math Destruction، الذي يتناول التأثيرَ المجتمعي للوغاريتمات: "الشيء الجيد الوحيد من وراء هذا أنه كشف الكذبة التي تقول إن كبرى شركات التكنولوجيا قادرة على حل هذه المشكلة عن طريق الذكاء الاصطناعي، لأنها في الواقع غير قادرة على ذلك. لا يعرف أحد كيفية مكافحة هذه الأمور. وينبغي لهم التوقف عن التظاهر بأنهم كذلك".
وقالت ميا جارليك، رئيسة قسم الاتصالات والسياسة في فيسبوك بأستراليا ونيوزيلندا، إن الشركة كانت "تعمل على مدار الساعة لحذف المحتوى المخالف باستخدام مزيج من التكنولوجيا والبشر"، موضحة أن الشركة أيضاً تحذف النسخ المعدلة من الفيديو التي لا تعرض مشاهد عنيفة.
لم يرد موقع تويتر على طلب للتعليق أُرسل إليه الإثنين 18 مارس/آذار، ورفض موقع ريديت التعليق، لكن كليهما قال إنه يعمل جاهداً منذ عدة أيام من أجل حذف المحتوى البغيض لعملية إطلاق النار. تضمن ذلك بالنسبة لموقع ريديت حظر مناقشتين بعنوان "دماء" (gore) و "شاهدوا الناس وهي تموت" (watchpeopledie)".
واعترف مسؤول تنفيذي في موقع يوتيوب خلال مقابلة حصرية أجراها مع صحيفة The Washington Post الأمريكية، بأن أنظمة المنصة غُلِّبت، وتعهد بإدخال تحسينات على الموقع. قال نيل موهان، كبير مسؤولي المنتجات في يوتيوب: "لقد أحرزنا تقدماً، لكن ذلك لا يعني أنه ليس لدينا كثير من العمل ينتظرنا، وهذه الحادثة أظهرت ذلك".
سارعت مواقع فيسبوك ويوتيوب وتويتر من قبل لاحتواء انتشار المحتوى البغيض على منصاتها وفشلت في ذلك. فليست هذه المرة الأولى التي يستخدم فيها القتلة مواقع التواصل الاجتماعي لنشر صور جرائمهم.
بيد أنه ليس هناك شخص شنَّ مثلَ هذا الهجوم الذي أوقع قتلى كُثراً بطريقة موجهة تماماً من أجل نشره عبر مواقع التواصل الاجتماعي. عبر كثير من النقاد عن قلقهم لأنها حدثت مرة، ومن المؤكد تقريباً أنها سوف تحدث مرة ثانية.
خيارات تصميم مواقع التواصل سهّلت انتشار هذا المحتوى على الإنترنت
قال ميكا شايفر، وهو مستشار سياسات تكنولوجية ومدير سابق في موقع يوتيوب، إنه على مدى العقد الماضي صمَّمت منصات التواصل الاجتماعي برامج لزيادة انتشار المحتوى إلى جمهور أوسع. وأوضح أن خيارات التصميم هذه سهلت من انتشار المحتوى على الإنترنت.
أضاف شايفر: "قبل ذلك في عام 2007، عندما كنت أعمل في يوتيوب، إذا نجح أحد الفيديوهات في الوصول إلى الصفحة الرئيسية يعني ذلك أنه حصل على مئات الآلاف من المشاهدات. وكانت هذه الفيديوهات تُنتقى يدوياً، وكنا نفحص كل واحد منها. لنقارن ذلك بما يحدث اليوم مع خوارزمية توصية المشاهدة التي تعطي ملايين المشاهدات إلى فيديوهات من دون تدخل بشري. لا أراه إلا شيئاً غير مسؤول".
يقول الأشخاص الذين يجرون دراسات على مواقع التواصل الاجتماعي إن إبطاء انتشار الفيديوهات المروعة قد يتطلب من الشركات تغيير السمات التي تساعد في تعزيز انتشار المحتوى، أو الحد منها. تتضمن هذه السمات خوارزميات التوصيات وخوارزميات البحث المعززة، وعمليات رفع المحتوى شبه الفورية، والتشغيل الأوتوماتيكي.
وبالفعل تواجه الشركات التي تخسر معركة ضبط المحتوى عواقب مالية. شهدت أسهم فيسبوك أدنى انخفاض لها في هذا العام، لتفقد أكثر من 3% من قيمتها خلال تعاملات أمس الأول الإثنين. في مذكرة إلى العملاء، ألقت لورا مارتن، وهي محللة في شركة Needham & Co، باللوم على الآثار السلبية لـ "الصور المروعة… التي يصعب حظرها تكنولوجياً بنسبة 100%، والتي تضر بسمعة (فيسبوك)".
انخفضت أيضاً أسعار أسهم شركة ألفابت، وهي الشركة الأم لشركة جوجل، بأقل من 1%.
شركات إلكترونية تسهل نشر المحتوى المتطرف
تقول السلطات إنه في يوم عملية إطلاق النار في نيوزيلندا، نشر الإرهابي الذي اعترف بجريمته، برينتون تارانت، رسالة مجهولة على موقع 8chan تفيد بأنه سينقل "بثاً مباشراً لهجومه عبر فيسبوك"، وتضمنت الرسالة رابطاً لصفحته على فيسبوك وعدداً من المواقع الأخرى التي رفع عليها بيانه المناهض للمسلمين ووثائق أخرى.
وفي غضون دقائق من هذا الإعلان، امتدحه كمٌّ كبير من المعلقين وزوار الموقع واحتشدوا من أجل تخزين الفيديو وإعادة رفعه على نطاق واسع وتوفير أقصى درجات الانتشار له. وتراوحت هذه التعليقات بين: "إنني أُحمّله"، و "جرى تخزين البث"، و "حملوا هذا الهراء الآن" و "انتهزوا الفرصة متى استطعتم".
كتب معلق آخر أن المسلح "وفَّى" بوعده، مضيفاً: "لقد رأيته للتو وهو يقتل كثيراً" من الأشخاص، واستخدم كلمة بذيئة كناية عن المسلمين. وكتب آخر: "ضربة موفقة". لم يرد موقع 8chan على طلبات للتعليق.
قال مايك أناني، وهو أستاذ مشارك في قسم الاتصالات بجامعة كاليفورنيا الجنوبية: "تحمل الطبيعة البشرية دائماً عوامل الشر والبشاعة. لكننا لا نطلب من المنصات حل مشاكل البشرية، فليست المسألة هكذا. لدى هذه الشركات احتكارات الإعلانات، واحتكارات لفت الانتباه… ويجب علينا أن نتوقع منها أن تكون أطرافاً ذات مسؤولية أكثر من هذا".
عندما يريد عمالقة التكنولوجيا حظر فيديو "مزعج"، فإنهم يضيفون الفيديو الأصلي إلى قائمة حظر داخلية ضخمة كي تتعرف أنظمتهم بسرعة على أي نسخة تظهر منه. وهذه النوعية من تكنولوجيا "التظليل" تعتبر سبباً رئيسياً في أن الشركات قادرة على حظر أو وضع علامة على الفيديوهات الجنسية للأطفال، والحملات الدعائية الإرهابية، والمواد التي تنتهك حقوق النشر قبل انتشارها بسرعة على الإنترنت.
ما أسهل خداع الخوارزميات
لكن خوارزميتها تعتمد على طريقة نمطية في التعرف على المحتوى، بل يمكن خداع الأنظمة الأكثر تطوراً بكل سهولة. فإذا أراد أي شخص نشر فيديو محظور -مثل منتهكي حقوق الأفلام وصانعي الفيديوهات المتطرفة- فيمكنه تقليص حجم المشاهد أو تغيير سرعة عرض الفيديو، أو ألوانه، أو حجم الصوت والفيديو، ثم يرفعه على الشبكة مرة أخرى.
قال موقع فيسبوك إنه حظر 80% من إعادة رفع الفيديوهات الأصلية لعملية نيوزيلندا الإرهابية خلال 24 ساعة، لكن حوالي 300 ألف فيديو تسللت إلى الموقع؛ مما يعني أنها كانت في متناول ملايين من الأشخاص المتصلين بالشبكة.
يوفر القانون الأمريكي حماية كبيرة لمنصات التكنولوجيا الرئيسية من الخضوع للمساءلة بسبب المحتوى الذي ينشره مستخدموها. ويرى وادي السيليكون هذه الحماية القانونية المستمرة منذ عقود، والتي تعرف المادة 230 من قانون آداب الاتصالات الذي يمثله، سبباً في أن مواقع التواصل الاجتماعي الرئيسية ازدهرت دون الاضطرار إلى الدفاع عن نفسها أمام الدعاوى القضائية المقدمة ضدها.
لكن المشرعين المحبطين المنتمين إلى كلا الحزبين الديمقراطي والجمهوري الأمريكيين يطرحون تساؤلات متزايدة حول ما إذا كان الوقت قد حان لصياغة تشريع يُعنى بكبح جماح المساوئ الرقمية التي على شاكلة خطابات الكراهية والحملات الدعائية الإرهابية.
قالت النائبة الديمقراطية سوزان ديلبين: "أعتقد أننا قطعاً في حاجة إلى الإنصات واستيعاب ما حدث تماماً في هذا الموقف، لنحدد أفضل الحلول كي نمنع حدوثه في المستقبل. فما حدث في نيوزيلندا مروع ومفجع، وذلك الفيديو لا يجب أن يكون متاحاً على الإنترنت".
لكن أحد الشخصيات الرئيسية التي أسهمت في صياغة المادة 230، وهو السيناتور الديمقراطي رون وايدن، دعا إلى توخي الحذر. أوضح وايدن أنه بينما يُقال إن عمالقة التكنولوجيا يجب عليهم أن يكونوا "أقوى مع تحديد هوية وبصمة المحتوى والأشخاص الذين يحرضون على العنف والكراهية، وحظرهم"، فإن التخلص من هذه الفقرة يمكن أن يحمل عواقب غير مرجوة على حرية الكلام.
وأضاف في بيان: "في أعقاب مثل هذه الأحداث المروعة، يخرج الساسة بردود فعل غير محسوبة لا توجِد حلاً حقيقياً للمشكلات، بل ومن الممكن أن تُفاقم منها".
الأنظمة الأوتوماتيكية تفشل في الاقتراب من القدرات البشرية
كان صناع السياسة الأوروبيون أكثر جرأة في مساءلة عمالقة التكنولوجيا على ما يظهر عبر منصاتهم. شرعت ألمانيا على سبيل المثال في العمل بقانون خلال العام الماضي يطلب من مواقع التواصل الاجتماعي حذف أمثلة خطابات الكراهية خلال 24 ساعة. واقترح الاتحاد الأوروبي في العموم قواعد تمنح فيسبوك ويوتيوب ومواقع أخرى ساعةً لحذف المحتوى الإرهابي، وإلا ستواجه هذه المنصات غرامات طائلة.
أخبر مارك زوكربيرغ، المدير التنفيذي لموقع فيسبوك، المشرعين في الكونغرس العام الماضي، بأن المشرفين من البشر وأنظمة الذكاء الاصطناعي يمكنهم أن يساعدوا الشركة على حل بعض من أصعب المشكلات المستعصية، بما فيها تحديد الفيديوهات المؤذية.
لكن باحثي الذكاء الاصطناعي قالوا إن هذا الرأي لا يضع في عين الاعتبار العدد الكبير من الطرق التي تفشل فيها الأنظمة الأوتوماتيكية في الاقتراب من القدرات البشرية، بما في ذلك استيعاب السياق والحس العام. تتميز الخوارزميات في يومنا هذا في مهام محددة، لكنها تكون "هشة"، حسبما يصفها بإحباط مهندسو الذكاء الاصطناعي، نظراً إلى أن إدخال تغييرات طفيفة على مهماتها أو بيانات التدريب الخاصة بها سرعان ما يؤدي إلى انهيارها.
قال ستيفن مريتي، وهو باحث في مجال تعلم الآلة بسان فرانسيسكو، إن شركات التقنية لا تريد اتخاذ إجراءات أكثر حزماً، مثل فرض قيود أكثر صرامة على هوية الأشخاص القادرين على رفع المحتوى، أو رفع مستوى الاستثمار في فرق العمل على ضبط واعتدال المحتوى؛ نظراً إلى أنها من الممكن أن تؤثر على سلاسة استخدام مواقعها أو نماذج الأعمال الخاصة بها. وأضاف: "لا يريدون القيام بذلك، لذلك يطلقون هذه الوعود الجامحة".
وأوضح قائلاً: "لكنك لا تستطيع الاعتماد كلياً على الابتكارات السحرية المستقبلية. لقد تجاوزنا مرحلة التنازل وترك شركات التكنولوجيا هذه تستفيد من قرينة الشك".