هذا ما سيحدث لو تواجه روبوت مع جندي في ساحة الحرب.. العلماء قلقون مما صنعت أيديهم

عربي بوست
تم النشر: 2021/11/01 الساعة 14:37 بتوقيت غرينتش
تم التحديث: 2021/11/01 الساعة 14:37 بتوقيت غرينتش
مستقبل مخيف للحروب في ظل ثورة الروبوتات المقاتلة/ رويترز

"جندى آلي عملاق يقتل الجنود البشر بلا رحمة ودون تمييز لأسير أو جريح أو صديق بعد أن خرج عن سيطرة مشغليه"، أصبح هذا المشهد أقرب إلينا مما نتصور، مع تزايد الأبحاث حول تطوير الجنود الآليين أو الروبوتات المقاتلة.

إذ تتسابق العديد من دول العالم على تطوير الروبوتات المقاتلة وسط مخاوف مما قد تسببه هذه الروبوتات من جرائم، حسبما ورد في تقرير لموقع Eurasian Times.

سباق نحو حروب الروبوتات المقاتلة

فمع احتمال أن تكون حروب الغد أسرع وأكثر تقدماً وأقل إنسانية من أي وقت مضى -بفضل التقدم في "الاستقلال الذاتي" للمنصات البرية والجوية والبحرية وتحت البحر- هناك الآن نقاشات في جميع أنحاء العالم حول ما إذا كانت سيكون من الآمن للبشرية الاعتماد على موثوقية وكفاءة الروبوتات العسكرية، بالنظر إلى الخوارزمية المستمرة ونقاط ضعف البيانات.

وأظهر سوق الروبوتات العسكرية ارتفاعاً مستمراً في ميزانيات الدفاع للدول الرائدة في السنوات الأخيرة. وتشير أحدث البيانات المتاحة إلى أن حجم سوق الروبوتات العسكرية من المرجح أن ينمو من 14.5 مليار دولار في عام 2020 إلى 24.2 مليار دولار بحلول عام 2025، بمعدل نمو سنوي مركب يبلغ 10.7٪.

كل فرع من فروع الجيش الأمريكي يطالب الآن بالمزيد والمزيد من الروبوتات. تقوم البحرية الأمريكية بتجربة سفينة تزن 135 طناً تسمى "Sea Hunter" يمكنها القيام بدوريات في المحيطات بدون طاقم، وتبحث عن غواصات يمكن أن تهاجمها ذات يوم بشكل مباشر.

كما يطوِّر الجيش الأمريكي نظاماً جديداً لدباباته يمكنه اختيار الأهداف بذكاء وتوجيه البندقية إليها. كما تعمل على تطوير نظام صاروخي يسمى صاروخ جو-أرض المشترك (JAGM) الذي لديه القدرة على اختيار المركبات للهجوم دون أن يقول الإنسان ذلك.

وتعمل القوات الجوية الأمريكية على برنامج "SkyBorg" الخاص بها، وهو عبارة عن بنية جماعية للطائرات ذاتية القيادة أو بدون طيار والتي ستمكن القوات الجوية من "وضع وإنتاج واستدامة طلعات المهام بوتيرة كافية لإنتاج واستدامة الكتلة القتالية في البيئات المتنازع عليها".

كما أن روسيا والصين لا تقفان مكتوفة الأيدي. يُعتقد أن لدى روسيا غواصة بدون طيار مزودة بـ"ذخيرة نووية". تقول الصين إنها ستكون الشركة الرائدة عالمياً في مجال الذكاء الاصطناعي (AI) الذي يمثل أساس تطوير مثل هذه الروبوتات بحلول عام 2030.

ويمكن للجنود الآلية أو الروبوتات المقاتلة أن تشكل ربع الجيش البريطاني في ثلاثينيات القرن الحالي عندما سيبلغ عددها 30 ألف "جندي آلي" يمثلون جزءاً لا يتجزأ من الجيش البريطاني، ويعملون جنباً إلى جنب مع الجنود البشر، حسب تقرير لصحيفة the Guardian البريطانية.

الدافع الرئيسي لهذا التوجه أن نشر الروبوتات المقاتلة العسكرية على نطاق واسع لتنفيذ المهام الخطرة لا يعرض مُشغّليها للأذى.

أنواع الروبوتات العسكرية

والروبوتات المقاتلة أو العسكرية ثلاثة أنواع:

1- الروبوتات "الأوتوماتيكية": التي تستجيب بطريقة ميكانيكية للمدخلات الخارجية. هذه عادة ما تكون بدون أي قدرة على تمييز المدخلات.

2- الروبوتات "الآلية": تقوم هذه الروبوتات بتنفيذ الأوامر بطريقة مبرمجة مسبقاً كرونولوجية باستخدام مستشعرات تساعد في تسلسل الإجراء. غالباً ما تكون مقيدة بخوارزميات تحدد قواعد عملياتها وسلوكها من الإجراءات البديلة الثابتة، مما يجعلها قابلة للتنبؤ.

3- الروبوتات المستقلة: هي تلك التي يمكنها الاختيار من بين خيارات متعددة للعمل بناءً على المدخلات الحسية ويمكنها تحقيق الأهداف من خلال تحسين أدائها عبر التعلم من خلال الذكاء الاصطناعي، على الرغم من أنها لا تزال مقيدة بمجموعة من الإجراءات المبرمجة مسبقاً، فإنها يمكن أن تتخذ قراراً مستقلاً.

إليك أخطرهم

يقول النقاد إن المشاكل أو الأخطار تكمن أساساً في الروبوتات المستقلة التي تتحسن باستمرار، بفضل التقدم في مجال الذكاء الاصطناعي.

حتى الآن، لا تزال الروبوتات تحت سيطرة البشر الذين يجب أن يوافقوا على إطلاق عنفهم المميت. ولكن مع الاستقلالية المدعومة بالذكاء الاصطناعي، والحوسبة الأسرع، وأجهزة الاستشعار الأفضل، يمكن للروبوتات المستقلة أن تقرر اختيار الأهداف بناءً على مدخلات المستشعرات وبدون تحكم بشري. وهذا ما يقلق الأكاديميين والباحثين القانونيين وصانعي السياسات من أن ظهور مثل هذه الروبوتات سيؤدي إلى "عالم آلي" للحرب غير الإنسانية.

العديد من المحاربين القدامى يدركون أن هذه الروبوتات يمكن أن تؤدي إلى خرق لسلسلة القيادة عند تنفيذ المهام بناءً على البيانات الفاسدة، والخوارزميات الخاطئة. قد يفرط الجنود في الاعتماد على الآلات ويكتسبون إحساساً زائفاً بالأمان دون فهم كامل لكيفية وصول هذه الأنظمة إلى أحكامهم، وهي ظاهرة تسمى "تحيز الأتمتة".

إلى جانب ذلك، هناك خطر آخر.. يتم تقرير الحروب من خلال "اتخاذ القرار الاستراتيجي"، بقيادة القيادة المدنية أو السياسية للبلد. وهذا بالضبط هو المكان الذي تنشأ فيه مشكلة رئيسية محتملة عندما يمكن أن تكتسب التحليلات والاستنتاجات التي يولدها الذكاء الاصطناعي درجة كبيرة من السلطة في القرارات السياسية.

ستعتمد الأمور على الأشخاص الذين لديهم إمكانية الوصول إلى الذكاء الاصطناعي، والذين بدورهم في وضع يسمح لهم بوضع نتائجها في سياق معين وتفسيرها بشكل قد يحدث مشكلات.

الروبوتات المقاتلة
الروبوتات المقاتلة المستقلة هي أخطر أنواع الروبوتات/رويترز

ونظراً لأن القوات المسلحة تتمتع بمثل هذا الوصول، فإن التوترات المدنية والعسكرية لديها كل فرصة للتفاقم، لا سيما في الدول الديمقراطية.

ولكن مهما كانت هذه الاحتمالات غير مرحب بها، فإن المحاربين القدامى مثل الجنرال الأمريكي السابق ستانلي ماكريستال يحذرون من أن "الروبوتات القاتلة قادمة، وقد لا نفهم أبداً القرارات التي يتخذونها".

ويقول إن منح الذكاء الاصطناعي القدرة على شن ضربات قاتلة سيكون أمراً ضرورياً، على الرغم من أن القيام بذلك قد يؤدي إلى مستقبل "مخيف".

شكل المعارك سيكون مروعاً

هناك بعض الحجج المشروعة بأن الروبوتات المقاتلة تمثل أمراً خطيراً، بل مرعباً، حسبما ورد في تقرير لموقع Popular Mechanics.

تظهر فيديوهات عن المعركة الافتراضية بين الروبوتات المقاتلة والجنود البشر، قدرات استثنائية للروبوتات، فيمكن لجندي عملاق أن يقاتل بلا هوادة، بأسلحة لا يستطيع البشر حملها، أو التعامل معها، وقدرات رصد وتجسس استثنائية، ولكن ليس هذا أكثر ما يثير القلق، فهناك قلق فعلي حول قدرات الروبوتات المقاتلة في التعامل مع الظروف الملتبسة مثل الجنود الجرحى والأسرى والمدنيين من صفوف الأعداء، وحتى احتمالات التعامل مع الجنود الحلفاء، أو احتمالية عدم التعرف عليها أو العكس احتمالية خداعه من قبل الجنود  الأعداء.

ومؤخراً، تم إطلاق حملة طلابية بعنوان "#StopCambridgeKillerRobots" ضد بحث جامعة كامبريدج البريطانية لتطوير أسلحة فتاكة ذاتية التشغيل (LAWs)، أطلق عليها اسم "الروبوتات القاتلة".

يشعر بعض الطلاب وأعضاء هيئة التدريس في جامعة كارنيغي ميلون الأمريكية بعدم الارتياح إزاء قاعدة أبحاث الذكاء الاصطناعي الجديدة للجيش الأمريكي في الحرم الجامعي.

كما احتج موظفو Google على العمل في مشروع الذكاء الاصطناعي لصالح وزارة الدفاع الأمريكية.

تجربة لروبوت يتم تدريبه ليكون مقاتلاً

تمثل تجربة روبوت يسمى RoMan نموذجاً للقدرات الهائلة التي يمكن أن تمتلكها الروبوتات المقاتلة والمخاوف التي قد تحملها، حسبما ورد في تقرير لموقع spectrum.

إنه بحجم جزازة العشب الكبيرة، مع قاعدة مجنزرة تساعده على التعامل مع معظم أنواع التضاريس. في المقدمة، وهو مزود بكاميرات وأجهزة استشعار للعمق، بالإضافة إلى زوج من الأذرع التي تم حصادها من نموذج أولي لروبوت استجابة للكوارث تم تطويره في الأصل في مختبر الدفع النفاث التابع لوكالة ناسا الفضائية الأمريكية لمسابقة الروبوتات DARPA.

وظيفة رومان اليوم هي تنظيف الطرق، وهي مهمة متعددة الخطوات يريد برنامج ARL الذي يستهدف تدريب الروبوتات المقاتلة منه أن يكملها بشكل مستقل قدر الإمكان. بدلاً من توجيه الروبوت لفهم أشياء محددة بطرق محددة ونقلها إلى أماكن محددة، يطلب المشغلون من RoMan "السير في مسار واضح". ثم يعود الأمر إلى الروبوت لاتخاذ جميع القرارات اللازمة لتحقيق هذا الهدف.

القدرة على اتخاذ القرارات بشكل مستقل هي ما يجعل الروبوتات الآلية مفيدة، فهي تتخذ القرارات بناءً على تلك المعلومات، ثم اتخاذ إجراءات مفيدة دون مدخلات بشرية جديدة.

في البيئات المنظمة مثل المصانع، يعمل هذا بشكل جيد بما فيه الكفاية. ولكن في البيئات الفوضوية أو غير المألوفة أو سيئة التحديد، فإن الاعتماد على القواعد يجعل الروبوتات سيئة السمعة في التعامل مع أي شيء لا يمكن التنبؤ به بدقة والتخطيط له مسبقاً.

شبكة عصبية تشبه الموجودة لدى البشر

لدى الروبوتات مثل رومان شبكات عصبية اصطناعية- وهو نهج حوسبي يحاكي بشكل غير محكم بنية الخلايا العصبية في العقول البيولوجية، وتقوم هذه الشبكة بتحديد الظروف المحيطة لتوفير البيانات لاتخاذ القرارات.

تستطيع الشبكة العصبية الاصطناعية التعرف على أنماط البيانات، وتحديد البيانات الجديدة التي تشبه (ولكنها ليست متطابقة) البيانات التي واجهتها الشبكة من قبل، فيما يعرف بتقنية "التعلم العميق".

على الرغم من أن البشر يشاركون عادةً في عملية التدريب، وعلى الرغم من أن الشبكات العصبية الاصطناعية كانت مستوحاة من الشبكات العصبية في أدمغة البشر، فإن نوع التعرف على الأنماط الذي يقوم به نظام التعلم العميق يختلف اختلافاً جوهرياً عن الطريقة التي يرى بها البشرُ العالمَ.

غالباً ما يكون من المستحيل فهم العلاقة بين إدخال البيانات في النظام وتفسير البيانات التي يُخرجها النظام. وهذا الاختلاف يطرح مشكلة محتملة للروبوتات مثل رومان.

 في الإعدادات الفوضوية أو غير المألوفة أو سيئة التحديد، يؤدي الاعتماد على القواعد إلى جعل الروبوتات سيئة السمعة في التعامل مع أي شيء لا يمكن التنبؤ به بدقة والتخطيط له مسبقاً.

يعد نظام التعلم العميق جيداً في التعرف على الأنماط، ولكنه يفتقر إلى فهم العالم الذي يستخدمه الإنسان عادةً لاتخاذ القرارات، وهذا هو السبب في أن هذه الأنظمة تعمل بشكل أفضل عندما تكون تطبيقاتها محددة جيداً وضيقة النطاق.

يقول توم هوارد، الذي يدير مختبر الروبوتات والذكاء الاصطناعي بجامعة روتشستر والذي طور خوارزميات تفاعل اللغة الطبيعية لـ RoMan والروبوتات الأرضية الأخرى: "إنه عند تطبيق التعلم العميق على المشكلات ذات المستوى الأعلى، يصبح عدد المدخلات المحتملة كبيراً جداً، ويمكن أن يكون حل المشكلات على هذا النطاق أمراً صعباً. وتكون العواقب المحتملة للسلوك غير المتوقع أو غير القابل للتفسير أكثر أهمية عندما يتجلى هذا السلوك من خلال روبوت عسكري ثنائي السلاح يبلغ وزنه 170 كيلوغراماً".

عمل تحالف التكنولوجيا التعاونية الروبوتية (RCTA) التابع لمختبر أبحاث الجيش الأمريكي مع علماء الروبوتات في عدد من الجامعات والشركات لتطوير استقلالية الروبوت لاستخدامها في المركبات القتالية البرية المستقبلية. رومان هو جزء من هذه العملية.

يقول إيثان ستامب، كبير العلماء في برنامج الذكاء الاصطناعي للمناورة والتنقل في ARL: "يمكن استدعاء الجيش للعمل بشكل أساسي في أي مكان في العالم. ولكن ليس لدينا آلية لجمع البيانات في جميع المجالات المختلفة التي قد تعمل فيها الروبوتات المقاتلة.

يقول ستامب: "لا يمكنني التفكير في نهج التعلم العميق الذي يمكنه التعامل مع هذا النوع من المعلومات المرتبط بالعمليات الشبيهة بالعمليات العسكرية".

والمشكلة أن أسلوب التعلم العميق يتطلب "الكثير من البيانات والوقت".

لا يمثل هذا الأمر قلقاً لدى الجيوش التي تفترض عموماً أن البشر المدربين جيداً سيكونون في الجوار ليُظهروا للروبوت الطريقة الصحيحة للقيام بالأشياء.

لا يقتصر الأمر على مشاكل ندرة البيانات والتكيف السريع مع صعوبة التعلم العميق. هناك أيضاً أسئلة حول المتانة وقابلية الشرح والسلامة. يقول ستامب: "هذه الأسئلة ليست خاصة بالجيش، لكنها مهمة بشكل خاص عندما نتحدث عن الأنظمة التي قد تتضمن القدرة على القتل".

لا تعمل ARL حالياً على أنظمة الأسلحة الفتاكة ذاتية التشغيل، لكن المختبر يساعد في وضع الأساس للأنظمة المستقلة في الجيش الأمريكي على نطاق أوسع، مما يعني النظر في الطرق التي يمكن من خلالها استخدام أنظمة القتل الآلية في المستقبل.

تعتبر السلامة أولوية واضحة، ومع ذلك لا توجد طريقة واضحة لجعل نظام التعلم العميق آمناً، وفقاً لستامب. "إن القيام بالتعلم العميق مع قيود الأمان هو جهد بحثي كبير".

من الصعب إضافة هذه القيود إلى النظام، لذلك عندما تتغير المهمة، أو يتغير السياق، من الصعب التعامل مع ذلك، يقول ستامب: "المشكلة إذا جاءت معلومات أخرى وغيّرت ما نحتاج إلى القيام به".

نيكولاس روي، الذي يقود مجموعة Robust Robotics Group في معهد ماساتشوستس للتكنولوجيا من المتشككين في بعض الادعاءات المقدمة حول قوة التعلم العميق، ويتفق مع علماء الروبوتات في ARL على أن التعلم العميق لا يستطيع على الأرجح التعامل مع أنواع التحديات التي يجب أن يكون الجيش مستعداً لها. 

يقول روي: "يدخل الجيش دائماً بيئات جديدة، وسيحاول الخصم دائماً تغيير البيئة بحيث لا تتطابق عملية التدريب التي مرت بها الروبوتات مع ما يرونه". "لذا فإن متطلبات الشبكة العميقة غير متوافقة إلى حد كبير مع متطلبات مهمة الجيوش، وهذه مشكلة".

على غرار الكلاب

في المستقبل المنظور، تعمل ARL على التأكد من أن أنظمتها المستقلة آمنة وقوية من خلال إبقاء البشر في الجوار من أجل كل من التفكير عالي المستوى والنصائح العرضية منخفضة المستوى. والفكرة أن البشر والروبوتات أكثر فاعلية عند العمل معاً كفريق.

عندما بدأت المرحلة الأخيرة من برنامج تحالف التكنولوجيا التعاونية في مجال الروبوتات في عام 2009، يقول ستامب: "لقد أمضينا بالفعل سنوات عديدة في العراق وأفغانستان، حيث غالباً ما تُستخدم الروبوتات كأدوات. كنا نحاول اكتشاف ما يمكننا القيام به لنقل الروبوتات من الأدوات إلى العمل أكثر كأعضاء في الفريق".

علماء يرون الأفضل التعامل مع الروبوتات العسكرية على مستوى الكلاب العاملة في الجيوش/رويترز

قد يكون تحويل الروبوت إلى زميل جيد في الفريق أمراً صعباً، لأنه قد يكون من الصعب العثور على القدر المناسب من الاستقلالية. وسيتطلب الأمر معظم أو كل تركيز إنسان واحد لإدارة روبوت واحد، والذي قد يكون مناسباً في مواقف خاصة مثل التخلص من الذخائر المتفجرة ولكنه غير فعال بخلاف ذلك. الكثير من الاستقلالية وستبدأ في مواجهة مشكلات الثقة والأمان.

يوضح ستامب: "أعتقد أن المستوى الذي نبحث عنه هنا هو أن تعمل الروبوتات على مستوى الكلاب العاملة في الجيوش". "إنهم يفهمون بالضبط ما نريد منهم القيام به في ظروف محدودة، ولديهم قدر ضئيل من المرونة والإبداع إذا واجهوا ظروفاً جديدة، لكننا لا نتوقع منهم القيام بحل إبداعي للمشكلات. وإذا كانوا بحاجة إلى المساعدة، فإنهم يعودون إلينا".

القادة العسكريون متحمسون، ولكن لماذا يقلق العلماء؟

لكن البرنامج الذي يتم تطويره لـ RoMan والروبوتات الأخرى في ARL، والذي يُطلق عليه مخطط التعلم التكيفي (APPL)، من المرجح استخدامه أولاً في القيادة الذاتية، ولاحقاً في أنظمة روبوتية أكثر تعقيداً يمكن أن تتضمن روبوتات متحركة مثل RoMan. 

يجمع APPL بين تقنيات مختلفة للتعلم الآلي والنتيجة هي نظام استقلالية يمكن أن يتمتع بالعديد من فوائد التعلم الآلي، مع توفير نوع الأمان وإمكانية الشرح التي يحتاجها الجيش، مع APPL، يمكن لنظام قائم على التعلم مثل RoMan أن يعمل بطرق يمكن التنبؤ بها حتى في ظل حالة عدم اليقين، والتراجع عن الضبط البشري إذا انتهى به الأمر في بيئة مختلفة تماماً عما تدرب عليه.

مع توسع تطبيقات الذكاء الاصطناعي في كل المجالات، بما فيها القيادة الذاتية للسيارات، يبدو قادة الجيوش متحمسين إلى إدخال الروبوتات المقاتلة إلى قواتهم، ولكن يجد ستامب نفسه مضطراً إلى أن يشرح لجنرالات الجيش الأمريكي، أنه عندما يتعلق الأمر بالأنظمة المستقلة، "هناك الكثير من المشاكل الصعبة، لكن مشاكل الصناعة الصعبة تختلف عن مشاكل الجيش"، إذ لا يمتلك الجيش رفاهية تشغيل الروبوتات الخاصة به في بيئات منظمة بها الكثير من البيانات الموجودة سلفاً، ولهذا السبب بذل برنامج ARL الكثير من الجهد في اختبار برامج التعلم بعناية، على أن يكون للبشر دور مركزي فيها، ومن المرجح أن يظل البشر جزءاً أساسياً من إطار العمل المستقل الذي تقوم ARL بتطويره، خوفاً من خروج الروبوتات الآلية عن السيطرة.

تحميل المزيد