قد لا يلتفت الكثيرون إلى ما يسمى عنصرية الذكاء الصناعي، ولكن تجدد النقاش حول الموضوع بعدما انتشرت في الآونة الأخيرة العديد من التطبيقات والفلاتر لتعديل صورك الشخصية، والتي تقوم بتحويلها إلي صور كرتونية أو تقوم بتخيُّل شكلك إذا كنت كبير السن أو إذا كنت من الجنس الآخر أو عند تقدمك في العمر أو غيرها.
تعتمد هذه التطبيقات والفلاتر وغيرها على خوارزميات الذكاء الاصطناعي لتحليل الصورة وإيجاد وجهك، ثم تقوم بتحويل الصورة إلى بيانات، ثم تعالج خوارزميات الذكاء الصناعي صورتك عبر بناء صورة جديدة معتمدة على ملايين الصور المخزنة في قاعدة البيانات ثم تعرض النتيجة.
أصدقاؤك ليسوا أجمل بعد استخدام هذه الفلاتر ولكنهم أكثر بياضاً
ولكنك ربما لاحظت نمطاً غريباً في صور أصدقائك الذين يستعملون هذه الفلاتر، تبدو ملامحهم أوروبية أكثر في النتيجة، سبب هذا هو أن الذكاء الصناعي الذي يقوم بمعالجة هذه الصور يعتمد بالأساس على قاعدة بيانات من الصور المتاحة لهذه الخوارزمية عبر الإنترنت، ولذلك فإن الصورة التي تنتجها الخوارزمية تميل إلى أن تُشبه أكثر الناس وجوداً على الشبكة، وهم ذوو البشرة البيضاء.
عنصرية الذكاء الصناعي
برزت مشاكل حول انحياز التكنولوجيا إلى عرق أو ثقافة معينة منذ ظهور التكنولوجيا نفسها، فالمستخدم العربي للإنترنت على سبيل المثال كان مضطراً إلى استخدام الحروف اللاتينية عندما كان الكمبيوتر لا يدعم الحروف العربية، وكذلك فإن خوارزميات تحديد الوجوه الموجودة في الكاميرات تقوم بتحديد وجوه ذوي البشرة البيضاء بشكل أفضل من ذوي البشرات الداكنة، مما يبدو كنوع من أنواع عنصرية الذكاء الصناعي.
وهناك ثلاثة أنواع رئيسية لعنصرية الذكاء الصناعي:
1– الانحياز التفاعلي
يعد الانحياز التفاعلي أحد أشكال الانحياز التي تحدث للذكاء الصناعي بسبب تفاعل المستخدمين معه، على سبيل المثال في التطبيق الذي يحوّل صورتك للجنس الآخر، يقوم التطبيق باكتساب خبرةٍ أكثر، بسبب الذكاء الصناعي مع كل صورة جديدة يرفعها مستخدم إليه، لنتخيل أن الغالبية من مستخدمي هذا التطبيق من ذوي البشرة البيضاء، مع الوقت سيقدم هذا التطبيق تصورات أقرب للمستخدمين ذوي البشرة البيضاء، بسبب أن غالبية الذين تفاعلوا مع التطبيق كانوا كذلك، مما يخلق نوعاً من عنصرية الذكاء الصناعي.
2– الانحياز الكامن
يعتبر الانحياز الكامن أحد أهم أسباب انحياز الذكاء الصناعي، يقوم الذكاء الصناعي في العادة بدراسة مجموعة من البيانات لإيجاد روابط بينها والتعلم منها، وفي أغلب الأوقات تكون تلك البيانات منحازة إلى ثقافة أو عِرق معين، على سبيل المثال تحتل اللغة الإنجليزية وحدها 55% من الإنترنت، بينما تحتل اللغة العربية 1.6% فقط، وبناء على ذلك سيقوم محرك جوجل للترجمة القائم على الذكاء الصناعي بترجمة اللغة الإنجليزية بشكل أفضل من العربية.
اقرأ أيضًا: تراقب وتنصت وتقرأ كمساعد وفي.. إليك التطبيقات الأكثر شيوعاً التي تستخدم الذكاء الاصطناعي
3- الانحياز الاختياري
وأخيراً فإن هناك مشكلة في شكل البيانات التي يختارها المبرمج أو صانع التطبيق لتدريب الذكاء الصناعي، فمثلاً إذا أراد مبرمج التطبيق تدريبه على تمييز الجنس إذا كان رجلاً أو امرأة ثم درّب خوارزمية الذكاء الصناعي بناء على الصور الشخصية على ملفات تويتر على سبيل المثال، فإن الولايات المتحدة تتصدر عدد مستخدمي تويتر؛ ولذلك فإن اختيار المبرمج لهذه البيانات بالتحديد لتدريب الذكاء الصناعي خلق انحيازاً في الخوارزمية.
كيف يمكن أن يؤثر ذلك علينا؟
مع تطور خوارزميات الذكاء الصناعي أصبحنا نعتمد عليها بشكل كبير، فشركة أمازون على سبيل المثال تعتمد عليها في التوظيف، إليك كيف تعمل، تتم تغذية الخوارزمية بكل السير الذاتية الخاصة بالمتقدمين على وظائف عبر تاريخ شركة أمازون، ثم تقوم الخوارزمية بإيجاد الأنماط والقواسم المشتركة بين الذين تم توظيفهم بالفعل، وبناء على ذلك تقوم باختيار المترشحين، لكن ماذا لو أن موظفي الموارد البشرية عبر تاريخ شركة أمازون كانوا متحيزين إلى الرجال أكثر من النساء، أو إلى المواطنين أكثر من المهاجرين؟ ببساطة تصبح الخوارزمية عنصرية والذكاء الصناعي كذلك، بسبب تغذيتهم ببيانات عنصرية.
مثال آخر وهو الخوارزميات التي تحدد من يحصل على قروض في البنوك، وكذلك تحديد مخاطر الائتمان وقيم التأمين، ترتفع قيمة التأمين الصحي بشكل ملحوظ للسيدات على سبيل المثال.
ما الحل؟
إن مشاكل انحيازات الذكاء الصناعي تتعديى كونه قد يخطئ في توقع صورة أوباما ورسمه كرجل أبيض، أو حتى في إعطاء ملامح أوروبية لأصدقائك، لكن المشكلة تتخطى ذلك؛ لكوننا نعتقد أن أجهزة الكمبيوتر لا تخطئ ونفترض فيها الحياد، لذلك على المبرمجين أن يكونوا حذرين حول نوعية وشكل البيانات التي يقومون بتغذية الذكاء الصناعي بها.