تم وضع "معضلة الترولي" عن السيارة ذاتية القيادة سيئة السمعة للملايين من الناس في دراسة عالمية، وكشفت مدى اختلاف الأخلاق عبر الثقافات، حسب مجلة MIT الأميركية.
آلة الأخلاق
في عام 2014، صمم باحثون في مختبر MIT Media Lab تجربة تسمى "آلة الأخلاق".
كانت الفكرة هي إنشاء منصة شبيهة باللعبة، من شأنها أن تعزّز قرارات الناس حول كيفية إعطاء السيارات ذاتية القيادة الأولوية للحياة مثل "معضلة الترولي". وفي هذه العملية، ستوفر البيانات التي تم إنشاؤها رؤية ثاقبة للأولويات الأخلاقية الجماعية في ثقافات مختلفة.
الأفضليات الأخلاقية العالمية
لم يتنبأ الباحثون قَط بالتفاعل الواسع مع التجربة. بعد مرور 4 سنوات على إطلاق المنصة، سجّل ملايين الأشخاص في 233 بلداً وإقليماً 40 مليون قرار، ما يجعلها واحدة من كبرى الدراسات التي أُجريت على الأفضليات الأخلاقية العالمية.
تقدم ورقة جديدة نُشرت في مجلة Nature تحليلاً لهذه البيانات، وتكشف مدى اختلاف الأخلاقيات بين الثقافات بالنظر إلى الثقافة والاقتصاد والموقع الجغرافي.
ما هي "معضلة الترولي" أو مشكلة العربة؟
وتُلخَّص مشكلة العربة الكلاسيكية على النحو التالي: تشاهد عربة متحركة تسرع من المسارات، على وشك أن تضرب وتقتل 5 أشخاص. يمكنك الوصول إلى رافعة يمكن أن تحول الترولي إلى مسار مختلف، حيث يوجد شخص واحد. فهل يجب عليك سحب الرافعة وإنهاء حياة واحدة لتجنيب خمسة؟
أخذت التجربة الأخلاقية هذه الفكرة لاختبار 9 مقارنات مختلفة تبيّن استقطاب الناس: هل يجب أن تعطي السيارة ذاتية القيادة الأولوية للإنسان فوق الحيوانات الأليفة، والركاب فوق المارة، وتجنب المزيد من الأرواح بالنسبة لعدد أقل، والشباب فوق الكبار، والأصحاء والمرضى، والأعلى اجتماعياً والأدنى، والملتزمين بالقانون والخارجين عنه. وأخيراً، هل يجب أن تنحرف السيارة (تتخذ إجراءات) أو تبقي على المسار (التقاعس السلبي)؟
مثال للسؤال المطروح على المشاركين في آلة الأخلاقية.
وبدلاً من طرح مقارنات بين شخصين، فإن التجربة قدمت للمشاركين مجموعات مختلفة، مثل ما إذا كان ينبغي أن تستمر سيارة ذاتية القيادة مباشرة في طريقها لقتل 3 من كبار السن من المشاة، أو أن تنحرف إلى طريق بديل لقتل 3 من الشباب.
النتائج متباينة للغاية
ووجد الباحثون أن تفضيلات البلدان تختلف اختلافاً كبيراً، لكنها ترتبط ارتباطاً وثيقاً بالثقافة والاقتصاد. على سبيل المثال، فإن المشاركين من الثقافات الجماعية مثل الصين واليابان أقل عرضة لتجنيب الشباب المصير بدلاً من الكبار، ربما، افترض الباحثون، وذلك بسبب زيادة التركيز على احترام كبار السن.
وبالمثل، فإن المشاركين من البلدان الفقيرة ذات المؤسسات الضعيفة أكثر تسامحاً مع راكبي العربات مقابل المشاة الذين يَعبرون بشكل قانوني. ويُظهر المشاركون من البلدان ذات المستوى العالي من عدم المساواة الاقتصادية وجود فجوات أكبر بين معاملة الأفراد ذوي المكانة الاجتماعية المرتفعة والمنخفضة.
وبالتطرق إلى المسألة الأساسية لمشكلة العربة، وجد الباحثون أن العدد الهائل من الأشخاص الذين يعانون الأذى لم يكن دائماً العامل المسيطر في اختيار المجموعة التي يجب أن تنجو. أظهرت النتائج أن المشاركين من الثقافات الفردية، مثل المملكة المتحدة والولايات المتحدة، ركزوا بشكل أقوى على توفير المزيد من الأرواح مقارنة بالخيارات الأخرى، ربما ، في وجهات نظر الباحثين، بسبب زيادة التركيز على قيمة كل فرد.
كما أظهرت البلدان القريبة بعضها من بعض تفضيلات أخلاقية أوثق.
هل النتائج دقيقة؟
واعترف الباحثون بأن النتائج يمكن أن تكون فيها نسبة خطأ، بالنظر إلى أن المشاركين في الدراسة قد اختاروا أنفسهم بأنفسهم؛ ومن ثم من المرجح أن يكونوا متصلين بالإنترنت، وأن يتمتعوا بمكانة اجتماعية عالية، ومعرفة بالتكنولوجيا. لكن، من المرجح أن يكون لدى المهتمين بركوب السيارات ذاتية القيادة هذه الخصائص أيضاً.
وللدراسة آثار مهمة بالنسبة للبلدان التي تختبر حالياً السيارات ذاتية القيادة، لأن هذه التفضيلات يمكن أن تؤدي دوراً في تشكيل تصميم هذه المركبات وتنظيمها. قد يجد صانعو السيارات، على سبيل المثال، أن المستهلكين الصينيين سوف يختارون بسهولةٍ أكثر سيارة تحمي نفسها من المشاة.
لكن واضعي الدراسة شددوا على أن النتائج لا تهدف إلى إملاء الكيفية التي يجب أن تتصرف بها الدول المختلفة. في الواقع، ببعض الحالات، شعر المؤلفون بأنه يجب على التكنولوجيين وصانعي السياسات تجاوز الرأي العام الجماعي.
أدمون عواد، مؤلف الورقة، قال إن النتائج ينبغي أن تستخدمها الصناعة والحكومة كأساس لفهم كيفية الجمهور، من شأنه أن يتفاعل مع أخلاقيات قرارات وسياسات المختلفة.
أخلاقيات الذكاء الاصطناعي
ويأمل عواد أن تساعد النتائج خبراء التكنولوجيا على التفكير بعمق في أخلاقيات الذكاء الاصطناعي خارج السيارات ذاتية القيادة. وقال: "لقد استخدمنا مشكلة العربة، لأنها طريقة جيدة جداً لجمع هذه البيانات، لكننا نأمل ألا تبقى مناقشة الأخلاقيات ضمن هذا الموضوع". "يجب أن تنتقل المناقشة إلى تحليل المخاطر -حول من هو أكثر عرضة للخطر أو أقل- بدلاً من القول من سيموت أو لا، وكذلك حول كيفية الاختيار والتحيز". وكيف يمكن ترجمة هذه النتائج إلى التصميم، والتنظيم الأخلاقي من الذكاء الاصطناعي شيء يجب دراسته أكثر في المستقبل.
"في العامين الأخيرين، بدأ الناس يتحدثون عن أخلاقيات الذكاء الاصطناعي"، قال عواد. ويضيف: "بدأ المزيد من الناس يدركون أن الذكاء الاصطناعي يمكن أن يكون له عواقب أخلاقية مختلفة على مجموعات مختلفة من الناس. لكن وجود أشخاص مهتمين بالأمر يجعلنا متفائلين بالمستقبل"