بعد اقتحام مبنى الكونغرس الأمريكي في 6 يناير/كانون الثاني من العام الماضي، قالت شركة ميتا، الشركة الأم لفيسبوك، إنَّها تريد تقليص حجم المحتوى السياسي الذي تُظهِره للمستخدمين. وتعيد نتائج هذه المساعي، بشكل تدريجي، تشكيل الخطاب السياسي على أكبر منصة تواصل اجتماعي في العالم، على الرغم من تراجع الشركة عن نهجها الأكثر شراسة: الامتناع عن تقديم أي توصيات مرتبطة بالمحتوى السياسي.
وأوضحت وثائق داخلية اطلعت عليها صحيفة The Wall Street Journal الأمريكية جهود الشركة التي كانت قاسية أحياناً على مدار الأشهر الـ18 الماضية للحد من الموضوعات السياسية والموضوعات الأخرى المثيرة للانقسام على المنصة.
كيف أصبحت فيسبوك أكثر شراسة في محاربة المحتوى السياسي؟
تقول "وول ستريت جورنال" إنه في البداية، عدّلت فيسبوك الأسلوب الذي تُروِّج به للمحتوى المتعلِّق بالسياسة والصحة. فأظهرت الوثيقة أنَّه مع إظهار استطلاعات الرأي ضجر المستخدمين من الصراع، بدأت المنصة تفضيل المنشورات التي اعتبر المستخدمون أنَّها تستحق وقتهم على حساب المنشورات الأخرى التي كانت تثير انزعاجهم. لم يكن هناك خطبٌ ما في النقاشات، لكنَّ فيسبوك لم يعد يُروِّج لها بنفس القدر.
غير أنَّ قيادات شركة "ميتا" قرَّروا أنَّ ذلك ليس كافياً. فوفقاً لأشخاص مطلعين على النقاشات، دفع الرئيس التنفيذي لشركة ميتا مارك زوكربيرغ ومجلس الإدارة، المستاؤون من المزاعم التي لا تنتهي بشأن التحيُّز وفرض الرقابة، باتجاه ذهاب الشركة إلى ما يتجاوز التعديلات التدريجية.
طُرِحَت مجموعة من الخيارات على زوكربيرغ ومجلس الإدارة، وقد اختاروا أكثرها تشدداً، إذ وجَّهوا الشركة بالحد من المنشورات المتعلِّقة بالموضوعات "الحساسة" قدر الإمكان في صفحة آخر الأخبار (Newsfeed) التي تستقبل المستخدمين حين يفتحون التطبيق، وهي مبادرة لم يُعلَن عنها سابقاً.
كانت الخطة متماشية مع دعوات بعضٍ من أشد منتقدي الشركة، الذين زعموا أنَّ فيسبوك إمَّا متحيِّزة سياسياً أو مدفوعة تجارياً لتعزيز الكراهية والجدل. ووفقاً لأشخاص مطلعين على النقاشات، ضغط المُعلِنون والمستثمِرون على الشركة لسنوات من أجل ضبط دورها الفوضوي في السياسة.
لكن وفقاً لأبحاث داخلية وأشخاص مطلعين على المشروع، أصبح واضحاً أنَّ خطة كبح السياسة سيكون لها عواقب غير مقصودة.
إذ كانت النتيجة هي تراجع المشاهدات للمحتوى من الصفحات والمنصات التي تعتبرها فيسبوك "ناشري أخبار عاليي الجودة" مثل شبكة CNN وشبكة Fox News بدرجة أكبر من المواد المنشورة من وسائل إعلام اعتبرها المستخدمون أقل موثوقية. وقفزت شكاوى المستخدمين بشأن المعلومات المضللة، وتراجعت التبرعات الخيرية عبر منتج جمع التبرعات الخاص بالشركة من خلال فيسبوك في النصف الأول من عام 2022. وربما الأهم هو أنَّ المستخدمين لم يعجبهم الأمر.
وخلُص تحليل داخلي إلى أنَّ فيسبوك يمكن أن تحقق بعض أهدافها من خلال الحد بشكل كبير من انتشار المحتوى المدني –تغطية القضايا السياسية والمجتمعية والاجتماعية- في صفحة آخر الأخبار، لكنَّ ذلك سيأتي بـ"تكلفة عالية وعلى نحو غير كفؤ".
النهج الجديد لفيسبوك لا يزال يقلل مقدار المحتوى الذي يراه المستخدمون
سحب زوكربيرغ في نهاية يونيو/حزيران 2022 دعمه للخطة الأكثر تشدداً. وفي ظل العجز عن كبح الجدل السياسي من خلال القوة الفظة، عاد فيسبوك إلى التغييرات الأكثر تدريجية في ما يتعلَّق بطريقة ترويج صفحة آخر الأخبار لما تعتبرها المنصة "موضوعات حساسة"، مثل الصحة والسياسة.
تقول "وول ستريت جورنال" إن النهج الحالي لا يزال يقلل مقدار ما يراه المستخدمون من محتوى. فتُظهِر الوثائق أنَّ شركة ميتا تُقدِّر الآن أنَّ السياسة تُشكِّل أقل من 3% من إجمالي مشاهدات المحتوى في صفحة آخر الأخبار لدى المستخدمين بشكل عام، متراجعة من نحو 6% خلال فترة انتخابات 2020.
لكن بدلاً من تقليص المشاهدات من خلال الكبح العشوائي أو الإدارة التدخُّلية للغاية، قامت فيسبوك، بحسب الوثائق وأشخاص مطلعين على جهود المنصة، بتغيير توصيات خوارزميات صفحة آخر الأخبار المتعلقة بالمحتوى الحساس للتركيز على ما يقول المستخدمون إنَّهم يهتمون به، والابتعاد عما يجعلهم يتفاعلون معه.
قال رافي آير، وهو مدير علوم بيانات سابق بشركة ميتا كان قد عمل على المسألة من قبل، إنَّ نهج ميتا الحالي يمثل تخلياً من جانب الشركة عن نموذج التركيز على التفاعل الذي لطالما استخدمته فيسبوك وكذلك العديد غيرها من منصات التواصل الاجتماعي الكبرى الأخرى.
وأضاف آير أنَّه يجب أن يكون التركيز على الطريقة التي تسمح بها المنصات لمحتوى معين بالانتشار أكبر من التركيز على القرارات الذاتية غير الموضوعية بشأن أي الموضوعات يجب تركها وأيها يجب إزالتها.
الخوارزميات الجديدة أصبحت مدمرة لكثيرين
لكنَّ تحركات شركة ميتا الأخيرة تهدد بإثارة حفيظة بعض الناشرين الرقميين الذين بنوا أعمالهم على أساس مراعاة خوارزميات صفحة آخر الأخبار.
فتقول شبكة Courier Newsroom، وهي شبكة للمنشورات الرقمية، إنَّها تعاني من أجل جذب الانتباه على فيسبوك على الرغم من زيادة نشاطها خلال فترة انتخابات التجديد النصفي لعام 2022.
وفي صفحة موقع الأخبار Mother Jones الذي يميل إلى الاتجاه التقدُّمي، والذي يُغطِّي بشكل أساسي السياسة والقضايا الاجتماعية، كان إجمالي مشاهدات محتوى الصفحة على فيسبوك في عام 2022 نحو 35% فقط مما كانت عليه قبل عام.
وبالنسبة لدان بونغينو، وهو مُعلِّق محافظ تُعَد صفحته على فيسبوك من الصفحات الأكثر شعبية في المنصة، استمر تفاعل المستخدمين –وهو مقياس للإعجابات والتعليقات والمشاركات- في النمو، وذلك وفقاً للأداة التحليلية CrowdTangle. ويعتقد هو الآخر أنَّ ابتعاد فيسبوك الاستراتيجي عن السياسة خاطئ جزئياً؛ لأنَّ قاعدة مستخدمي المنصة تميل إلى التقدُّم في السن وتميل لأن تصبح أكثر اهتماماً بالقضايا السياسية.
علاقة فيسبوك المتضاربة مع المحتوى السياسي
كانت علاقة فيسبوك بالسياسة متضاربة على مدى سنوات، نظراً إلى عدم وجود موضوعات أخرى كثيرة تثير الانزعاج –والتفاعل- على وسائل التواصل الاجتماعي بنفس القدر.
فدافع زوكربيرغ، خلال حديث له في جامعة جورج تاون عام 2019، عن دور وسائل التواصل الاجتماعي في السياسة والمجتمع. وقال: "أعتقد أنَّ الناس يجب أن يتمكَّنوا من استخدام خدماتنا لمناقشة القضايا التي يخالجهم شعور قوى حيالها، من الدين والهجرة وحتى السياسة الخارجية والجريمة"، مؤكداً أنَّ دور فيسبوك في الخطاب العام كان صحياً في نهاية المطاف.
وأشار مقال نُشِرَ بإحدى الصحف عام 2021 إلى بحث داخلي في الشركة يُظهِر أنَّ خطوات تعزيز التفاعل قد منحت أفضلية للمواد المُهيِّجة، بحيث أعاد الناشرون والأحزاب السياسية توجيه منشوراتهم لتُركِّز على الغضب والإثارة.
وقالت فيسبوك إنَّ لديها فريق سلامة قائماً للتعامل مع محاولات استغلال خوارزميات المنصة، وإنَّها ليست مسؤولة عن الانقسامات الحزبية في المجتمع.
واستمر الباحثون في توثيق المعاملة التفضيلية من جانب فيسبوك للمحتوى السام حتى بعد نشر المقالات. وفي أعقاب انتخابات 2020 واقتحام الكونغرس في 6 يناير/كانون الثاني، تصاعد الضغط على الشركة لمعالجة التصور السائد بأنَّها إمَّا سامة أو متحيِّزة.
وأوضحت استطلاعات الرأي التي أجرتها الشركة عقب الانتخابات أنَّ المستخدمين يعتقدون أنَّ منصة فيسبوك كان لها تأثير غير صحي على الخطاب المدني، وأنَّهم يريدون رؤية قدر أقل من السياسة على المنصة. واستجوب المُشرِّعون المسؤولين التنفيذيين للشركة في جلسات استماع قاسية في الكونغرس.
وفي فبراير/شباط 2021، أعلنت فيسبوك أنَّها ستبدأ مؤقتاً في عرض محتوى سياسي أقل لـ"نسبة صغيرة من الناس" في ظل تجربتها لطرق تهدف لخدمة روَّادها بصورة أفضل. وقالت الشركة إنَّ الهدف لم يكن تقييد النقاش السياسي، بل "احترام رغبة كل شخص حياله".
بدأت التجربة في الولايات المتحدة والبرازيل وكندا، في تخلّ عن ممارسة الشركة المعتادة باختبار التغييرات الكبرى في الأسواق الثانوية. وقالت الشركة بعد ستة أشهر إنَّها أحرزت تقدُّماً بخصوص تحديد "أي المنشورات يجدها الناس أكثر قيمة من غيرها"، وإنَّها ستضع تركيزاً أقل على التعليقات وإعادة مشاركة المنشورات في المستقبل.
قلَّل هذا الإعلان من حجم التغيير. ففيسبوك لم تكن فقط تقلل التركيز على التعليقات وإعادة مشاركة المنشورات المتعلِّقة بالموضوعات المدنية؛ بل كانت تنزع تلك الإشارات من نظام توصياتها بالكامل.
تكلفة كبيرة
كانت تلك نسخة أكثر شراسة مما كان الباحثون في فيسبوك يدفعون باتجاهه لسنوات: معالجة المعلومات غير الدقيقة ومشكلات السلامة الأخرى من خلال جعل المنصة أقل انتشاراً. ولأنَّ هذا النهج لم يتضمَّن فرض رقابة على وجهات النظر أو كبح المحتوى من خلال أنظمة ذكاء اصطناعي غير دقيقة، اعتُبِرَ –بلغة الشركة- نهجاً "لا يمكن الدفاع عنه".
أظهرت بيانات داخلية أنَّ مشاهدات المحتوى المدني في صفحة آخر الأخبار تراجع بمقدار الثلث تقريباً. وقد تراجع التنمُّر والمعلومات غير الدقيقة والعنف المُصوَّر أيضاً.
لكن كانت هناك تكلفة. فمع أنَّ المستخدمين أخبروا فيسبوك أنَّ صفحة آخر الأخبار لديهم باتت "تستحق وقتهم" أكثر، تراجع الولوج إلى المنصة بنسبة ملحوظة. ومع أنَّ الشركة تخلَّت سابقاً عن تغييرات أدَّت إلى انخفاضات أصغر من ذلك، فإنَّها قبلت التكلفة هذه المرة.
لكن وفقاً لوثائق وأشخاص مطلعين على المسألة، ظلَّ مجلس الإدارة قلقاً بشأن ما كان يُشار إليه داخلياً باسم "البروز" السياسي، وهو الدرجة التي ربط بها الناس فيسبوك بالموضوعات شديدة الجدل.
استقر مجلس الإدارة وزوكربيرغ على القمع الواسع للمحتوى المدني في صفحة آخر الأخبار. لكنَّ إزالة السياسة لم يكن في سهولة كبسة زر. إذ تضم خوارزمية صفحة آخر الأخبار 30 ألف سطر من الأكواد، وكان عدم الدقة في التحقق من المحتوى يعني أنَّ فيسبوك سيتمكَّن من تقليص مشاهدات المحتوى المدني بواقع 70% فقط. كما أنَّ التغييرات لن تعالج بشكل مباشر الجدالات الناشئة عن منتديات المستخدمين ذات التفكير المتشابه، التي تُسمَّى "مجموعات فيسبوك" (Facebook Groups).
كانت الشركة تخطط لطرح التغييرات في صيف 2022، قبل انتخابات التجديد النصفي الأمريكية. وتُظهِر الوثائق أنَّ الشركة كانت تخطط لإبلاغ المستخدمين بالتغيير، وكانت تفكر في كيفية تقديم خيارات لهم. وحاولت الشركة التنبؤ بالنتائج من خلال اختبار صور مختلفة لتغيير الخوارزمية على أكثر من ربع مستخدمي فيسبوك. وأظهرت الاختبارات أنَّ التأثير سيكون شديداً على الكثير من الناشرين الجدد.
وبحسب مزيج خصائص القمع المُستخدَم، من المنتظر تراجع حركة الزيارة المتوقعة لصفحات شبكتيّ Fox News وMSNBC وصحيفة The New York Times وموقع Newsmax ومجلة The Atlantic وصحيفة The Wall Street Journal بما بين 40-60% بخلاف التراجعات التي حدثت بالفعل، على أن تتقلَّص هذه التأثيرات في ظل إيجاد الناشرين لطرق من أجل التكيُّف.
لم يُنظَر إلى ذلك باعتباره مشكلة. وأشار تحليل مرافق إلى أنَّ فيسبوك كانت تأمل "تقليص حوافز إنتاج المحتوى المدني".
هل تعيد فيسبوك التفكير مجدداً في كيفية الترويج لـ"المحتوى الحساس"؟
تسبب مجرد اختبار كبح المحتوى المدني واسع النطاق على جزء بسيط من مستخدمي فيسبوك في تراجع بنسبة 10% في التبرعات الخيرية عبر خاصية جمع التبرعات في المنصة. ومن المنتظر أن تتلقى المجموعات الإنسانية وجمعيات المعلمين وأولياء الأمور وجامعي التبرعات للمستشفيات ضربات جادة للتفاعل على صفحاتهم في فيسبوك.
وحذَّر تقرير داخلي من أنَّه في حين سيُقلِّص قمع المحتوى المدني بشكل واسع النطاق تجارب المستخدمين السيئة، "فإنَّنا على الأرجح سنستهدف أيضاً المحتوى الذي يرغب المستخدمون في رؤيته".
أقنعت كل تلك المعلومات زوكربيرغ في أواخر يونيو/حزيران الماضي بالتخلي عن التغييرات المزمعة الأبعد مدى، تاركاً الشركة من جديد تعيد التفكير في كيفية الترويج للمحتوى الحساس.
ولا تزال الشركة تناقش ما إذا كان يجب أيضاً أن تُقيِّد طريقة ترويجها لأنواع أخرى من المحتوى، مثل تغطية الجرائم الأكثر إثارة.
قال آير، مدير علم البيانات السابق بشركة ميتا: "يفتح هذا الباب أمام التفكير بشأن ما هي الحدود التي يجب أن تكون بين المحتوى الحساس وغير الحساس".
وبعد أسابيع قليلة من تخلّي زوكربيرغ عن خطط التغييرات الواسعة، أصدرت الشركة إضافة مقتضبة أعلنت فيها خططاً لتجربة إظهار محتوى سياسي أقل للمستخدمين.
وتُدرِج وثيقة تخطيط حالية "تقليص التجارب السيئة مع الموضوعات الحساسة" باعتبارها "أولوية لا يمكن الفشل فيها" بالنسبة لفريق سلامة صفحة آخر الأخبار في فيسبوك.
وجاء في الوثيقة: "نحتاج إلى تسريع التقدم في مختلف جوانب فيسبوك في هذا المجال".