بدأت الشرطة النيوزيلندية التحقيق في تلقي رئيسة الوزراء جاسيندا أرديرن تهديدات بالقتل عبر مواقع التواصل الاجتماعي.
أرسل أحد مستخدمي موقع تويتر منشوراً إلى رئيسة الوزراء يحتوي على صورة لبندقية وكتب فيه "أنتِ التالية".
وذكرت صحيفة The Herald النيوزيلندية أن المنشور استمر في الظهور لأكثر من 48 ساعة قبل أن يُعلَّق حساب المرسل على تويتر قبل الساعة 4 مساءً بعد أن أبلغ كثير من المستخدمين عن هذه المنشور.
ونشر مستخدم آخر منشوراً وَسَم فيه اسم أرديرن وشرطة نيوزيلندا وحمل نفس الصورة بنفس التعليق "أنتِ التالية".
I've just reported some death threats against our Prime Minister, complete with pictures of guns, that were tweeted 48 hours ago – if you wouldn't mind sorting those out while you're here standing with us.
— Aimee Gulliver (@aimeegulliver) March 22, 2019
وضم الحساب المعلّق محتوى معادياً للإسلام وخطاب كراهية من أحد المتعصبين للعرق الأبيض.
وقالت متحدثة باسم الشرطة لصحيفة The Herald: "علمت الشرطة بأمر المنشور على موقع تويتر وبدأت التحقيقات".
وتم التواصل مع مكتب رئيسة الوزراء وموقع تويتر للتعليق على هذا الأمر.
فيما وجه مستخدمون آخرون رسائل إلى موقع تويتر نفسه بعد أن غرد عملاق الشبكات الاجتماعية برسالة دعم عقب الهجوم على مسجدين بمدينة كرايستشيرش يوم الجمعة الماضي 15 مارس/آذار 2019 الذي راح ضحيته 50 قتيلاً.
وغرد حساب Twitter Public Policy –التابع لتويتر أستراليا- "كونوا أقوياء. نتضامن مع نيوزيلندا".
Kia Kaha. We stand together with New Zealand.
— Twitter Public Policy (@Policy) March 22, 2019
وجاءت الرسالة الساعة 1:48 مساءً عقب وقفة الصمت لمدة دقيقتين في جميع أنحاء البلد حداداً على ضحايا الهجوم على المسجد.
وقال البعض وفق تقرير صحيفة New Zeland Herald النيوزيلندية إن التغريدة هي "تعبير عديم الفائدة" لأن التغريدات العنصرية والتغريدات التي تحض على العنف تُترك على الشبكة الإلكترونية دون أي رد فعل من موقع تويتر.
يشار إلى أن منصات التواصل الاجتماعي تعرضت لانتقادات بعد أن تمكن منفذ هجوم يوم الجمعة الماضي من بث لقطات حية للعملية ومشاركتها مع الآخرين.
وفي اليوم التالي للهجوم قال تويتر إنه "يرصد ويحذف أي محتوى يصور المأساة وسيستمر في فعل ذلك تماشياً مع قواعد تويتر".
كما حث المستخدمين على الإبلاغ عن أي تغريدات تنتهك قواعد الشبكة الاجتماعية.
وذكر موقع فيسبوك في بيان أن البث المباشر للهجوم شاهده أقل من 200 مستخدم، ولم يتم الإبلاغ عنه إلا بعد 12 دقيقة من انتهاء البث الذي استغرق 17 دقيقة. وقالت الشركة إن الفيديو شوهد نحو 4 آلاف مرة قبل إزالته.
وأضافت الشركة أن قسم الذكاء الاصطناعي لديها كان جزءاً من المشكلة.
وقال فيسبوك في بيان مساء أمس 21 مارس/آذار 2019: "في الوقت الذي يجري فيه تطوير قسم "الذكاء الاصطناعي" إلا أنه لن يكون محكماً أبداً".
وتابع: "يظل الناس دائماً جزءاً من المعادلة، سواءً كانوا أفراد فريقنا الذين يراجعون المحتوى، أو المستخدمين الذين يستفيدون من خدماتنا ويبلغوننا عن المحتوى".