بينما أدت حرب أوكرانيا إلى ظهور شكوك حول مستقبل الدبابات في القتال الحديث، فإن الجيش الأمريكي يفكر بطريقة عكسية؛ حيث يسعى لإنتاج نوع من الدبابات العاملة بالذكاء الاصطناعي جزئياً، بحيث تتولى البرمجيات بعض الوظائف البشرية في الدبابة، الأمر الذي يطرح احتمال أن يحل الذكاء الاصطناعي قريباً محل جنود مدفعية الدبابات.
وتقدم حرب أوكرانيا دروساً مهمة عن استخدام الذكاء الاصطناعي في القتال الحديث، فالعديد من تطبيقات الذكاء الاصطناعي تؤدي دوراً مساعداً بالفعل إلى جانب كييف تحديداً بفضل الدعم الغربي.
إلى أي مدى تم استخدام الذكاء الاصطناعي في حرب أوكرانيا؟
وتستعين وكالات الاستخبارات الغربية أيضاً بتحليل البيانات لدراسة كم هائل من البيانات -صور الأقمار الصناعية، واستخبارات الإشارات، والمحادثات مفتوحة المصدر- أثناء متابعتها لسير المعركة. وتتبادل الوكالات هذه المعلومات الاستخبارية مع كييف، وتُستخدم لدعم القوات الأوكرانية في الميدان. وهذا يعني أن الذكاء الاصطناعي يسهم مساهمة غير مباشرة في أحداث ساحة المعركة. والذكاء الاصطناعي له تطبيق تشغيلي آخر في مجال الأمن السيبراني التجاري. على سبيل المثال، اعتمد دفاع مايكروسوفت الاستباقي ضد روسيا على الذكاء الاصطناعي للكشف عن البرامج الضارة.
وبينما تؤكد التوقعات المستقبلية بشكل عام على الفاعلية الهجومية للذكاء الاصطناعي. ومع ذلك، فتطبيقات الذكاء الاصطناعي المستخدمة اليوم لا تساعد أوكرانيا في صدها للهجوم الروسي إلا بدرجة هامشية. والذكاء الاصطناعي لا يسهم في تسريع وتيرة الحرب، وإنما إطالة أمدها عن طريق زيادة قدرة أوكرانيا على المقاومة.
كما أن في مجال القتال المباشر ما زال استخدام الذكاء الاصطناعي محدوداً.
فرغم ظهور عدد من الأسلحة الجديدة التي تستخدم لأول مرة في حرب بين جيشين كبيرين؛ مثل الطائرات المسيرة والأسلحة المضادة للرادارات والإلكترونيات تصيب العدو بالعمى، والإنترنت عبر الأقمار الاصطناعية، فإن أغلب هذه الأسلحة بما فيها من تكنولوجيا حديثة ما زالت تعتمد على التسيير البشري.
شكوك حول مستقبل الدبابات
على جانب آخر، ألقت الخسائر الكبيرة التي لحقت بأسطول الدبابات الروسية الضخم، بواسطة الطائرات المسيرة والصواريخ المحمولة على الكتف والمدفعية، تساؤلات حول مستقبل الدبابات.
مع ذلك الجيش الأمريكي ما زال يراهن على ما يبدو على الدبابات، ولكن مع توظيف الذكاء الاصطناعي لزيادة قدرتها وكفاءتها.
وفي هذا الإطار، تعمل شركة General Dynamics Land Systems الأمريكية التي تنتج دبابات أبرامز وناقلات الجنود سترايكر بسريةٍ على مشروع بحوث وتطوير مكثف للكشف عن ابتكارات حاسمة جديدة في الحرب البرية.
حيث تسعى لاستخدام الاستشعار بالذكاء الاصطناعي والمعالجة الحاسوبية للمساعدة بدرجةٍ كبيرة في تحسين العمر الافتراضي للعديد من المركبات القتالية، وكذلك أداؤها القتالي.
وقال تيم ريز، مدير تطوير الأعمال في الشركة، خلال مقابلةٍ مع مجلة National Interest الأمريكية: "عند النظر من زاوية الاستمرارية واللوجستيات، ستجد أننا نستخدم مصطلح استمرارية المركبة المستقلة؛ إذ يمكنك تشغيل الخوارزميات على المركبة لمراقبة الأنظمة الأساسية والمحرك والمكونات الإلكترونية، ثم مقارنتها بنماذج فترة البقاء التي طورتها الشركة بناءً على البيانات التي تجمعها منذ عقود.
ويهدف هذا المشروع إلى التنبؤ بموعد فشل النظام أو تراجع قدراته حتى يتم إخطار الطاقم بالأمر، ونقل هذه المعلومات إلى مسؤولي الصيانة والقائد حتى يتمكنوا من اتخاذ قراراتهم حول كيفية التعامل مع حالة جاهزية تشكيلاتهم العسكرية مستقبلاً".
الدبابات العاملة بالذكاء الاصطناعي جزئياً قد تكون خياراً أكثر واقعية من تلك المسيرة آلياً
ما زال المبكر الحديث عن استبدال قائد الدبابات بعمل تسيير عن بُعد أو قيادة قائمة على الذكاء الاصطناعي في ظل تعثر تجارب الدبابات المسيرة في الواقع حتى الآن، مثلما حدث مع الدبابات الروسية المسيرة، المسيرة آلياً "أوران-9 " التي أخفقت في المعارك الحقيقية عندما تم إرسالها لسوريا.
ولكن شركة General Dynamics Land Systems الأمريكية تسعى لتطوير دبابات عاملة بالذكاء الاصطناعي جزئياً، عبر تطوير أنظمة آلية للتعرف على الأهداف قبل توجيه مدافع الدبابات نحوها وهي المهمة التي تعد واحدة من أصعب المهام بالنسبة لجنود الدبابات.
ويتحدث مطورو الأسلحة في الشركة عن أنظمة التعرف على الأهداف بتقنية الذكاء الاصطناعي باعتبارها ابتكاراً رئيسياً سيقلب موازين المعارك البرية. حيث يستطيع النظام المجهز بالذكاء الاصطناعي أن يجمع وينظم بيانات الاستشعار الواردة ويقارنها بقاعدة البيانات القائمة لحل المشكلات، والعثور على الأنماط، والتعرف على الأهداف. وهذا هو ما تسعى الشركة لتطويره داخل دبابات أبرامز، وناقلات سترايكر، وغيرها من المركبات.
وأوضح ريز: "يستطيع بوت الذكاء الاصطناعي على المركبة أن ينبه الطاقم إلى وجود جسمٍ غير طبيعي وسط التضاريس، بالإضافة إلى منح الطاقم تقييماً لمدى ثقته في ما يراه؛ إذ يستطيع أن يقول مثلاً إن "هذه الدبابة روسية الصنع من طراز تي-72 بنسبة ثقة تبلغ 80%"، أو إن "هذا مدني يحمل بعض جذوع الشجر على كتفه في منتصف الغابة، وليس جندياً يحمل صاروخ كورنيت المضاد للدبابات".
وفي نقاشٍ سابق مع المجلة الأمريكية حول ظهور تكنولوجيا التعرف على الأهداف المدعمة، أوضح القائد السابق لقيادة الجيش الأمريكي المستقبلية الجنرال جون موراي، أن جنود مدفعية الدبابة كانوا يشاهدون بطاقات استذكار تحمل صور أهداف معادية. ويجري اختيار الجنود الذين يحددون أفضل الأهداف الصحيحة بسرعة، من خلال التعرف البصري السريع، ليصبحوا "جنود مدفعية" على ظهور الدبابات.
لكن تقنية التعرف التلقائي على الأهداف بمساعدة الذكاء الاصطناعي تستطيع الاستفادة من الخوارزميات المتطورة لتمييز تلك الفوارق فوراً، وتحديد تفاصيل التهديد بدرجةٍ عالية من الثقة وفي غضون أجزاء من الثانية. وتظل هناك مساحة حيوية لاستمرار استخدام قدرات اتخاذ القرار التي تميّز المراقبة والإدراك البشريين، لكن هذه الدرجة من الاستهداف المعتمد على الذكاء الاصطناعي والمعالجة السريعة يمكنها أن تخفف الأعباء عن كاهل متخذي القرار من البشر، لتمنحهم صورةً أوسع وأكثر تكاملاً عن التهديد القائم.
وأوضح مطورو الأسلحة في الشركة أن النهج بأكمله يستهدف تحقيق التوافق الكامل مع الجيش الأمريكي ودعم عملياته.
فيما صرح كيث باركلاي، مدير النمو والاستراتيجية في الشركة، قائلاً للمجلة الأمريكية: "نأمل أن يتحمس الجيش الأمريكي بما يكفي لهذه التقنية، ونرى أنهم سيدفعون بها في المرحلة التالية من استراتيجية التحديث سواءً في صورة برنامج كامل وجديد كلياً في بعض الحالات، أو من خلال الزيادة التدريجية لقدرات الأسطول الحالي".
مخاوف من فوضى في الحروب بسبب الذكاء الاصطناعي
العديد من المحاربين القدامى يدركون أن أنظمة القتالية العاملة بالذكاء الاصطناعي؛ مثل الروبوتات المقاتلة أو حتى الدبابات العاملة بالذكاء الاصطناعي جزئياً يمكن أن تؤدي إلى خرق لسلسلة القيادة عند تنفيذ المهام بناءً على البيانات الفاسدة، والخوارزميات الخاطئة.
وقد يفرط الجنود في الاعتماد على الآلات والذكاء الاصطناعي ويكتسبون إحساساً زائفاً بالأمان دون فهم كامل لكيفية وصول هذه الأنظمة إلى أحكامها، وهي ظاهرة تسمى "تحيز الأتمتة".
كما أن تقاسم المسؤولية بين الجندي البشري وخوارزمية الذكاء الاصطناعية، يطرح إشكالية أخلاقية، من يتحمل اللوم في حال وقوع أخطاء.
ففي حال قيام دبابات عاملة بالذكاء الاصطناعي جزئياً، بإطلاق النار على أهداف صديقة أو مدنية، فمن يتحمل المسؤولية: الشركة المنتجة للبرمجيات أم الشخص الذي أدخل المعلومات التي أدت للخطأ أم المشغل البشري للدبابة؟.
والأخطر ماذا لو تعطلت برمجيات الذكاء الاصطناعي، أو تم اختراقها لتقوم بمهام معاكسة لأهداف مشغليها، كيف يمكن ضمان السيطرة عليها؟.
المشكلة أنه مهما أجريت تجارب محاكاة للواقع لضمان تطوير برمجيات توجيه النيران في الدبابات العاملة بالذكاء الاصطناعي، فإن المعارك ستظل أكثر تعقيداً من أي مناورات أو ألعاب حرب، الأمر الذي سيعني أن التقييم الحقيقي لهذه التكنولوجيا سيكون في خضم الحرب؛ حيث قد تثبت جدواه أو تحول الحروب لفوضى مزرية.