اشتغل كثير من النقاشات المتعلقة بالذكاء الاصطناعي بتعقُّب تأثيره على وظائف ذوي الياقات البيضاء (أصحاب الأعمال المكتبية) والخطر الذي يواجهونه بانقراض وظائفهم، على غرار ما تعرضت له الطبقة العاملة بعد انتشار الروبوتات، ومع أن الاحتمال قائمٌ بأن يُباغتنا الذكاء الاصطناعي بقدرته على القيام بكثير من الأعمال التي يضطلع بها المحامون والمحاسبون والمعلمون والمبرمجون والصحفيون، فإن هذه المجالات ليست هي التي يُتوقع أن يُحدث فيها الذكاء الاصطناعي ثورته الأكبر أهمية.
هل يُحدث الذكاء الاصطناعي ثورة في الحروب البشرية؟
الواقع أن التقنيات الحديثة للذكاء الاصطناعي -المعروفة باسم المحولات التوليدية المدربة مسبقاً (GPT)- تُنذر بإحداث تحول شامل في الجغرافيا السياسية لقدرات الحروب العسكرية والردع. وهذا التحول لن يكون أمراً هيناً، بل قد يشتمل على تغييرات وجودية شديدة التأثير في واقعنا، كما يقول تقرير لمجلة The Foreign Policy الأمريكية.
فمن جهةٍ، يمكن لهذه التكنولوجيا أن تجعل الصراعات أقل فتكاً بالبشر، وأشد تعزيزاً للردع. ومثال ذلك: توسيع مشاركة الطائرات المسيرة الموجهة بالذكاء الاصطناعي في القوات الجوية والبحرية والجيوش، ومن ثم استباق النزاعات قبل تحولها إلى معارك شاملة وإنقاذ البشر من عواقبها.
وقد بدأت وزارة الدفاع الأمريكية (البنتاغون) بالفعل في تجربة روبوتات الذكاء الاصطناعي لقيادة طائرة مقاتلة معدلة من طراز "إف 16″؛ واختبرت روسيا مركبات ذاتية القيادة شبيهة بالدبابات؛ وبادرت الصين إلى تقديم أنظمتها الدفاعية العاملة بالذكاء الاصطناعي، ويتوقع أن تتوسع في استخدام الطائرات المسيرة المسلحة في السنوات القادمة.
برامج عسكرية سرية تعتمد على الذكاء الاصطناعي
في غضون ذلك، فإن الولايات المتحدة تُدير أحد أكبر المشروعات المعروفة في تطوير الذكاء الاصطناعي العسكري، وإن كان المشروع لا يزال في أطواره الأولى، وهو برنامج سري للقوات الجوية الأمريكية، يهدف للانتقال إلى الجيل القادم من الهيمنة الجوية، ويعتمد على إنتاج ألف طائرة مسيرة ذات قدرات خاصة، تسمى طائرات مقاتلة معاونة، تعمل كطائراتٍ مرافقة لنحو 200 طائرة مقاتلة يقودها طيارون.
قال دوغلاس شو، كبير المستشارين في منظمة "مبادرة الحد من التهديد النووي" الأمريكية: "لا أستبعد أن يتجاوز عدد الطائرات المسيرة عدد أفراد القوات المسلحة في المستقبل". ويرى تشارلز والد، الجنرال المتقاعد بالقوات الجوية الأمريكية، أن ذلك العامل "سيُضاعف من قوة الجيوش، خاصة أن إحدى أكبر المشكلات التي تواجهها في الوقت الحالي هي عجز التجنيد".
من جهة أخرى، يمكن لبرامج الذكاء الاصطناعي أن تقود القوى الكبرى إلى تقليص فترة اتخاذ القرار إلى دقائق بدلاً من ساعات أو أيام؛ إذ قد تزيد تلك القوى من اعتمادها على التقارير الاستراتيجية والتكتيكية التي يقدمها الذكاء الاصطناعي، حتى إن كان الأمر يتعلق بالحرب النووية. وقال هربرت لين، من جامعة ستانفورد، إن الخطر يكمن في أن صانعي القرار يمكن أن يتوسَّعوا تدريجياً في الاعتماد على الذكاء الاصطناعي في أنظمة القيادة والتحكم في الأسلحة، لأنها تعمل بسرعة أكبر بكثير من قدرات البشر.
في كتاب نُشر هذا العام، تحت عنوان "الذكاء الاصطناعي والقنبلة" (AI and the Bomb)، تخيَّل المؤلف جيمس جونسون، من جامعة أبردين البريطانية، حرباً نووية عرضية في بحر الصين الشرقي في عام 2025 تشتعل بغتةً بالاستناد على معلومات استخباراتية مدعومة بالذكاء الاصطناعي لدى الجانبين الأمريكي والصيني، والقوى المحركة فيها روبوتات مزودة بتكنولوجيا الذكاء الاصطناعي قادرة على القيام بعمليات التزييف العميق وعمليات التمويه والخداع العسكرية.
لكن الآلات لا تفكر
قال لين، خبير الأمن السيبراني، إن المشكلة الحقيقية تكمن في أن بعض الناس يقتنعون بسهولة بأن الذكاء الاصطناعي يتمتع بالوعي، على الرغم من أن جميع المعايير التي نحتكم إليها تشير إلى أن المحولات التوليدية إنما هي أدوات تقدِّم ميزة الإكمال التلقائي، أي أنها مثل محركات البحث وأدوات الاستعلام بقواعد البيانات. وفي ظل المبالغات المعقودة على قدرات الذكاء الاصطناعي، فإن "الناس قد يبدأون في التوهّم بأن الآلات تفكر، وربما يدفعهم ذلك إلى فعلِ أشياء مجنونة".
في تقرير نُشر في أوائل فبراير/شباط، قالت "رابطة الحد من الأسلحة" الأمريكية، إن الذكاء الاصطناعي وغيره من التقنيات الجديدة؛ مثل الصواريخ التي تفوق سرعتها سرعة الصوت، يمكن أن تؤدي إلى "التباس التمييز بين الهجوم التقليدي والنووي".
وذكر التقرير أن التهالك على "استغلال التقنيات الناشئة للاستخدام العسكري قد اشتد بوتيرة أسرع بكثير من الجهود المبذولة لتقييم مخاطرها، وتنظيم استخدامها. لذا يتعين الإبطاء من وتيرة استخدام هذه التقنيات في الأغراض العسكرية، وموازنة المخاطر بعناية عند القيام بذلك، واعتماد قيود ذات شأن على استخدامها عسكرياً".
اعتماد متزايد على الذكاء الاصطناعي
زعم مسؤولون أمريكيون أن الولايات المتحدة تفعل ذلك، لكن الواقع أن الاعتماد على هذه الأدوات ربما يدفع بهم إلى الخوض فيما يُعرف بمغالطة المنحدر الزلق، أي استدراجهم إلى سلسلة من العواقب التي تنتهي بنتيجة كارثية.
ففي يناير/كانون الثاني الماضي، حدَّثت وزارة الدفاع الأمريكية توجيهاتها بشأن أنظمة الأسلحة التي تنطوي على استخدام الذكاء الاصطناعي، وقالت إنه يجب الاحتكام إلى البشر بقدرٍ أكبر في تطوير أنظمة الأسلحة المستقلة ونشرها. ومع ذلك، فإن البنتاغون تجري في الوقت نفسه تجربة لإدماج الذكاء الاصطناعي في عملية صنع القرار لدى جميع فروع الخدمة العسكرية.
علاوة على ذلك، من المتوقع أن تستحث وزارة الدفاع الأمريكية خطوات الاعتماد على الذكاء الاصطناعي، لا سيما في ظل إقبال الإدارة الأمريكية في عهد الرئيس جو بايدن على تقييد صادرات التكنولوجيا الفائقة إلى الصين، وخاصة أشباه الموصلات المتقدمة، سعياً إلى الحفاظ على الريادة الأمريكية الحالية في مجال الذكاء الاصطناعي.
في خطاب ألقاه اللفتنانت جنرال جاك شاناهان، المدير السابق لمركز الذكاء الاصطناعي المشترك في البنتاغون، في عام 2019، قال إن وزارة الدفاع كانت تسعى بشغف إلى "تعزيز التكامل في قدرات الاعتماد على الذكاء الاصطناعي"، لكن هذا لن يشمل بالتأكيد أدوات القيادة والتحكم في استخدام الأسلحة النووية. وأوضح شاناهان أن الذكاء الاصطناعي لن تكون له سيطرة مباشرة على "أنظمة الأسلحة الفتاكة المستقلة"، "لكننا سنستخدم الذكاء الاصطناعي في تعزيز أنظمة أسلحتنا… لضمان أفضليتنا. إنه وسيلة لإنقاذ الناس، ومساعدتنا في ردع الخصوم واستباق الحروب لمنع وقوعها".
في معرض الرد على سؤال بشأن رؤية الصينيين والروس وغيرهم لقواعد استخدام الذكاء الاصطناعي العسكري، قال والد: "أرى أن الولايات المتحدة لن تمضي قدماً في طريق السماح لهذه الأدوات بأن تحل مكان السيطرة البشرية"، "لكنني لست على يقين من أن الجهات الأخرى ستفعل ذلك، لا سيما إذا وقعت هذه الأدوات في الأيدي الخطأ واستخدمت استخداماً خاطئاً".
مخاطر أكبر
ومن دواعي القلق أيضاً أن تكنولوجيا الذكاء الاصطناعي المتقدمة يمكن أن تسمح للجهات المارقة مثل الإرهابيين باكتساب المعارف اللازمة لبناء القنابل الإشعاعية، أو غيرها من الأسلحة الفتاكة. فالذكاء الاصطناعي زاد استخدامه بين جهات أكثر بكثير مما كانت عليه الأمور خلال الحرب الباردة، ما يعني أنه قد يُستخدم للكشف عن مواقع الأسلحة النووية.
قال شو، كبير المستشارين في منظمة الحد من التهديد النووي، إن "الذكاء الاصطناعي سيغير من طبيعة إخفاء الأشياء والعثور عليها"، لا سيما أن كثيراً من البيانات صارت مملوكة اليوم لشركات خاصة معرضة للاختراق والتجسس المدفوع بالذكاء الاصطناعي. والخلاصة أنه من الواضح أن العالم يشهد سباق تسلح جديداً في مجال الذكاء الاصطناعي، وربما لا يوجد الكثير مما يمكن فعله لإيقاف هذا السباق.
كان أكثر من 2000 من قادة شركات التكنولوجيا والباحثين فيها -منهم إيلون ماسك، مؤسس شركة تسلا، وستيفن وزنياك، رائد ثورة الحواسيب الشخصية في السبعينيات- قد وقَّعوا في أواخر مارس/آذار على عريضةٍ تحث مختبرات الذكاء الاصطناعي في جميع أنحاء العالم على التوقف مؤقتاً عن تدريب نماذج الذكاء الرقمي بسبب المخاوف المتنامية من كوارث قد تلحق بالبشرية من جراء استمرار هذا السباق دون تقييد أو تنظيم له.
لكن البعض يرى هذه المخاطر "مبالغاً فيها"
في المقابل، وصف بعض خبراء الذكاء الاصطناعي هذا التحذير من خطر وجودي على المجتمعات بأنه مبالغ فيه إلى حدٍّ ما، وانتقدوا العريضة زاعمين أنها "تبث الخوف" على أساس التوهم بأن برامج الذكاء الاصطناعي قد تصبح واعية، على غرار ما يحدث في أفلام الخيال العلمي. ومع ذلك، يقول لين: "نحن لا نتحدث عن كائنات شريرة يمكن أن تدمر الحضارة الإنسانية كما يحدث في فيلم (1984) الشهير. لكن الإفراط في الاعتماد على هذه الأدوات قد ينجم عنه وقوع خطأ بشري، وهذه الأدوات إنما هي ذخيرة موجهة بدقة ضد الذكاء البشري والعقلانية البشرية".
من جهة أخرى، فمن المستبعد بشدة أن تفرض الحكومات عقوبات لإلزام الجهات المعنية بإيقاف أبحاث الذكاء الاصطناعي، وهذا ليس فقط لأن كبرى شركات التكنولوجيا في العالم منخرطة في منافسة شرسة على تطوير هذه الأدوات، لا سيما الشركات الأمريكية في وادي السيليكون، ولكن أيضاً لأن التكنولوجيا الجديدة تنامى الاعتماد عليها في مرحلةٍ تشهد منافسة كبرى بين الولايات المتحدة والصين وروسيا على النفوذ العالمي.
قال ديفيد ديبتولا، اللفتنانت جنرال المتقاعد من القوات الجوية الأمريكية: "حتى لو أوقفت الولايات المتحدة أبحاث تطوير الذكاء الاصطناعي للأغراض العسكرية، فإن الصينيين والروس -بدرجة أقل- سيُواصلون بالتأكيد أبحاثهم في مجال الذكاء الاصطناعي".
لم تكن الرسالة المفتوحة من رواد قطاع التكنولوجيا إلا دليلاً جديداً على حالة الذعر المنتشرة منذ ظهور تطبيقات ChatGPT للذكاء الاصطناعي منذ أواخر الخريف الماضي، وإقبال شركات التكنولوجيا الكبرى على تقديم أنظمتها للذكاء الاصطناعي المحتوية على مع ما يسمى بأدوات الذكاء البشري التنافسي.
على الرغم من ذلك، فإن الرئيس الروسي فلاديمير بوتين قالها صريحةً منذ عام 2017، إن "منْ تكون له الريادة في هذا المجال [الذكاء الاصطناعي]، ستكون له السيادة على العالم"، وحروب المستقبل سينتصر فيها "الطرف الذي تدمر طائراته المسيرة طائرات الطرف الآخر".
ومع ذلك، تتفق بعض الجهات مع المخاوف المستجدة من الذكاء الاصطناعي، وتأثيراتها على مستقبل البشر. وفي هذا السياق، تجري وكالة مشروعات الأبحاث الدفاعية المتقدمة التابعة للبنتاغون برنامجاً بحثياً واسع النطاق يسمى "مستقبل الذكاء الاصطناعي"، وقال مات توريك، المتحدث باسم الوكالة، إن أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT قد أثارت مخاوف جديدة خطيرة حول الاعتماد على هذه الأدوات في اتخاذ القرارات الوجودية الكبرى [مثل استخدام الأسلحة النووية].