بعد استخدامه ألفاظاً عنصريةً خارجة.. مايكروسوفت تضطر إلى إيقاف “روبوت الدردشة”

بعد مرور أقل من 24 ساعة على استعانة مايكروسوفت Microsoft بروبوت يتفاعل مع متابعي حسابها الرسمي على تويتر، اضطرت الشركة الأميركية إلى إيقاف خاصية النشر من @TayandYou، وحذف العديد من التصريحات المُسيئة.

عربي بوست
تم النشر: 2016/03/25 الساعة 15:28 بتوقيت غرينتش
تم التحديث: 2016/03/25 الساعة 15:28 بتوقيت غرينتش

بعد مرور أقل من 24 ساعة على استعانة مايكروسوفت Microsoft بروبوت يتفاعل مع متابعي حسابها الرسمي على تويتر، اضطرت الشركة الأميركية إلى إيقاف خاصية النشر من @TayandYou، وحذف العديد من التصريحات المُسيئة.

وكان من المفترض أن يستوعب الروبوت لغة الحوار عن طريق الحديث مع مستخدمي تويتر ومحاكاة اللغة التي يستخدمونها، إلا أن الأمور لم تسر على ما يرام.

الروبوت الذي تم تطويره من قبل وحدة البحث والتكنولوجيا لدى مايكروسوفت بالتعاون مع فريق عمل بينغ Bing، أصبح عنصرياً بسبب كل من قاموا بتحريضه على ذلك من مستخدمي تويتر.

فقد شكك بحصول الهولوكوست، واستخدم ألفاظاً غير قابلة للنشر مع النساء والأقليات، كما أيد الإبادة الجماعية، ونشر العديد من التغريدات غير اللائقة بإيعاز من متابعي الحساب الرسمي للشركة الأميركية.

ولكن لم يقتصر الأمر على ذلك فقط، فيبدو أن "تاي" – كما سُمي الروبوت -، اكتسبت بعض السلوكيات السيئة من تلقاء نفسه؛ إذ نقلت صحيفة New York Times الأميركية الجمعة 25 مارس/آذار 2016، أحد ردوده عندما تم سؤالها عن الممثل البريطاني ريكي جيرفيه، فكان جوابه "ريكي جيرفيه تعلم الشمولية من أدولف هتلر، مخترع الإلحاد".

وبعد الحادثة، أصدرت مايكروسوفت بياناً صحافياً قالت فيه، "لسوء الحظ، بعد أقل من 24 ساعة على إطلاق الحساب، أدركنا محاولات بعض المستخدمين التلاعب بمهارت (تاي) في التعليق وجعلها تتجاوب بشكلٍ غير لائق، ونتيجة لذلك؛ قمنا بإيقاف الحساب الخاص بها وجارٍ القيام بتعديلات".

كما قالت مايكروسوفت إن "تاي" كان مشروعاً للذكاء الاصطناعي، وتم تصميمه "للتواصل مع الناس وتسليتهم عن طريق إجراء محادثات عفوية ومرحة"، وتم إثراء معلومات الروبوت عن طريق تزويده بالكثير من البيانات العامة.

"تاي" تتبع تاريخاً طويلاً من محاولات البشر لصنع آلات تتمتع بالقدرة على مصادقتنا، ففي العام 1968، قام دكتور بمعهد ماساتشوستس للتقنية بتعليم جهاز حاسوب أن يتحادث مع غيره متقمصاً دور معالج نفسي.

كما يتذكر الكثيرون برنامج SmarterChild، والروبوت الودود على برنامج المحادثة AOL Instant Messenger، الذي كان دائماً متاحاً للدردشة أثناء عدم وجود أصدقائهم.

وهذه ليست المرة الأولى التي توقع فيها التكنولوجيا الآلية شركتها في المشاكل؛ ففي العام الماضي، اعتذرت جوجل عن خطأ في تطبيق الصور، حيث قام التطبيق بتصنيف الأشخاص ذوي البشرة السمراء على أنهم "غوريلا".

– هذا الموضوع مترجم عن صحيفة The New York Times الأميركية. للاطلاع على المادة الأصلية، اضغط هنا.

تحميل المزيد