- من اللوجستيات إلى مصانع الاغتيال
- أدوات الذكاء الاصطناعي الأميركية
- مصنع الاغتيالات الإسرائيلي: "لافندر، حبسورا، وأين أبي؟"
- ذكاء الأسراب وبدائل "شاهد" الإيرانية
- صراع الأخلاق والسيادة: البنتاغون ضد أنثروبيك
- تسريع "سلسلة القتل" وسرعة الخوارزميات
- "الصقر الحسابي" ومخاطر التصعيد النووي
- التحديات القانونية والأخلاقية
- رد الفعل الإيراني والمواجهة في البيئة "المشوهة"
في الساعات الأولى من فجر 29 فبراير/ شباط 2026، دوّت انفجارات متتالية داخل منشآت عسكرية إيرانية في أصفهان وطهران. الضربات التي نُفذت بطائرات حربية وصواريخ دقيقة وطائرات مسيّرة بدت، في ظاهرها، عملية عسكرية تقليدية مشتركة بين الولايات المتحدة وإسرائيل.
لكن ما كشفته التقارير اللاحقة كان أكثر إثارة للقلق: الذكاء الاصطناعي لم يكن مجرد أداة مساعدة، بل كان جزءاً من منظومة القرار القتالي نفسها. العملية التي سماها البنتاغون "الملحمة الغاضبة" (Operation Epic Fury)، بينما أطلقت عليها إسرائيل "زئير الأسد" (Operation Roaring Lion)، كشفت عن نموذج جديد من الحروب الحديثة.
فخلف الطائرات والصواريخ كانت تعمل "سلسلة قتل" رقمية شبه مؤتمتة (AI-enabled Kill Chain)، حيث تولّت الخوارزميات تحليل كميات هائلة من البيانات الاستخبارية، وتحديد الأهداف، واقتراح توقيت الضربات، في وقت قياسي يفوق قدرة البشر على المعالجة.
وبينما كانت الانفجارات تهزّ مواقع في طهران وأصفهان وكرمانشاه، كانت معركة أخرى أقل ضجيجاً تدور خلف الكواليس: نقاش محتدم داخل واشنطن ووادي السيليكون حول حدود استخدام الذكاء الاصطناعي في القتل، ومسؤولية الشركات التكنولوجية، وحدود السيطرة البشرية على القرارات العسكرية.
هذا التقرير يرصد كيف أصبحت خوارزميات الذكاء الاصطناعي جزءاً من بنية الحروب المعاصرة، وكيف دخلت شركات التكنولوجيا الكبرى إلى قلب الصناعات العسكرية، وما الذي يعنيه ذلك لمستقبل القانون الدولي الإنساني ومفهوم المسؤولية عن القتل في ساحة المعركة، في عصر تتخذ فيه الخوارزميات قرارات قد تغيّر طبيعة الحرب نفسها.
من اللوجستيات إلى مصانع الاغتيال
لم يكن الاعتماد الكلي على الذكاء الاصطناعي في هجمات 2026 وليد الصدفة، بل جاء تتويجاً لعقدين من التحول الرقمي العميق في البنية التحتية العسكرية للولايات المتحدة وإسرائيل. هذا المسار بدأ من محاولات بدائية لتحسين كفاءة النقل، وانتهى بخلق "آلة حرب" تعتمد على البيانات كوقود أساسي للقتل.
- التجربة الأميركية: من استراتيجية "الأوفست" إلى "البرمجيات السيادية"
بدأ الجيش الأميركي استكشاف الذكاء الاصطناعي منذ أواخر الثمانينيات عبر برمجيات مثل "DART" التي استُخدمت في حرب الخليج لتحسين لوجستيات نقل القوات، لكن الذكاء الاصطناعي لم يصبح أولوية استراتيجية إلا في عام 2014 مع إطلاق "استراتيجية الأوفست الثالثة" (Third Offset Strategy) تحت قيادة بوب وورك.
كان الهدف حينها هو استعادة التفوق التكنولوجي الأميركي عبر الروبوتات والأنظمة ذاتية التشغيل. وفي عام 2017، حدث المنعطف التاريخي بتأسيس "فريق العمل الوظيفي المشترك للحرب الخوارزمية"، المعروف باسم "مشروع ميفن" (Project Maven).
هذا المشروع، الذي بدأ كمحاولة لأتمتة تحليل لقطات الطائرات المسيّرة، تطور ليصبح العقل المحرك لنظام "القيادة والسيطرة المشترك لجميع المجالات" (JADC2)، الذي يربط كل مستشعر بكل سلاح في الميدان عبر شبكة سحابية ذكية.
وبحلول يناير/ كانون الثاني 2026، أصدرت وزارة الدفاع الأميركية "استراتيجية تسريع الذكاء الاصطناعي" التي فرضت تحويل الجيش الأميركي إلى "قوة تقودها الخوارزميات أولاً"، ما مهد الطريق لدمج نماذج لغوية كبرى مثل "كلود" في أنظمة القتال.
- التجربة الإسرائيلية: الوحدة 8200 وميلاد "القتل الإحصائي"
في إسرائيل، قادت الوحدة 8200 (نخبة الاستخبارات العسكرية) هذا التحول، وانتقلت الوحدة من التنصت التقليدي إلى تطوير "خوارزميات قتالية" تدمج بيانات الأقمار الصناعية، وإشارات الهواتف، والنشاط السيبراني لخلق ملفات استهداف فورية.
كانت محطة 2021 (عملية حارس الأسوار) هي "أول حرب ذكاء اصطناعي في التاريخ" بالنسبة إلى إسرائيل، حيث تم اختبار نظام "مصنع النار" (Fire Factory) الذي يوزع الأهداف على الطائرات تلقائياً، ونظام "حبسورا" (Gospel) الذي يولد أهدافاً للمنشآت.
وبحلول عام 2024، تطورت هذه الأدوات إلى "لافندر" و"أين أبي؟"، وهي الأنظمة التي حولت عملية الاستهداف من "قرار قانوني مدروس" إلى "عملية إنتاج صناعي" تعتمد على احتمالات إحصائية.
- التحالف الخوارزمي (Pax Silica)
في 16 يناير/ كانون الثاني 2026، وقبل الهجوم الأميركي-الإسرائيلي على إيران بأسابيع، وقعت واشنطن وتل أبيب "شراكة استراتيجية في الذكاء الاصطناعي" ضمن مبادرة "باكس سيليكا" (Pax Silica).
هذا الاتفاق لم يكن مجرد تعاون تقني، بل كان بمثابة "عقد زواج" عسكري لدمج القدرات الأميركية في معالجة البيانات الضخمة مع الخبرة الإسرائيلية الميدانية في الاغتيالات الخوارزمية، ما أوجد جبهة موحدة للاستهداف الرقمي العابر للحدود.
أدوات الذكاء الاصطناعي الأميركية
بدأت قصة هذا التحول في عام 2017 مع مشروع "ميفن" (Project Maven)، الذي صُمم في البداية كحل لأزمة "فيضان البيانات" التي تواجهها الاستخبارات الأميركية. كان الهدف هو تدريب خوارزميات التعلم الآلي على التعرف على الأشياء في لقطات الفيديو التي تلتقطها الطائرات من دون طيار.
لكن بحلول شهر فبراير/ شباط 2026، تطور "ميفن" ليصبح المحرك الأساسي لنظام استهداف معقد يربط بين الأقمار الصناعية، والطائرات المسيّرة، والعملاء على الأرض، لتقديم توصيات فورية بالاستهداف.
- تطور القدرات الفنية لمشروع "ميفن"
خلال الضربات على إيران، لم يكتفِ "ميفن" بتصنيف الكائنات، بل قام بتحليل "أنماط الحياة" (Pattern of Life) للقادة العسكريين الإيرانيين. النظام قادر على معالجة بيتابايت من البيانات المرئية والإلكترونية لتحديد الثغرات الأمنية في الوقت الحقيقي.
على سبيل المثال، استُخدم النظام لتمييز منصات إطلاق الصواريخ المتحركة في محافظة كرمانشاه عن الشاحنات المدنية من خلال تحليل البصمات الحرارية وأنماط الحركة التي لا تدركها العين البشرية المجردة. الاعتماد على "ميفن" أدى إلى تحويل ساحة المعركة إلى قاعدة بيانات ضخمة قابلة للبحث.
هذا التحول يعني أن القرار العسكري لم يعد يعتمد على "حدس القائد"، بل على "ثقة الخوارزمية" التي تم تدريبها على آلاف الساعات من البيانات القتالية التي تم جمعها في نزاعات سابقة، مثل عمليات القبض على الرئيس الفنزويلي نيكولاس مادورو في يناير/ كانون الثاني 2026، التي كانت بمثابة اختبار أولي لهذه الأنظمة.
- "العقل المدبر": منصة بالانتير والاندماج مع Claude AI
تعد شركة "بالانتير" (Palantir Technologies) العمود الفقري لعمليات الاستهداف الأميركية الحديثة. منصتها للذكاء الاصطناعي (AIP) ومنتجها "جوثام 5″ (Gotham 5) عملا كـ"دماغ للميدان" خلال الهجوم على إيران، حيث قاما بكسر صوامع البيانات بين وكالة الاستخبارات المركزية (CIA)، ووكالة الأمن القومي (NSA)، والقيادة المركزية (CENTCOM).
- تقنية "الأنطولوجيا" ودمج البيانات المشفرة
ما يميز "بالانتير" هو قدرتها على خلق "أنطولوجيا" (Ontology) للميدان، وهي طبقة برمجية تحول البيانات الخام المشتتة إلى "أجسام" تفاعلية (طائرة، صاروخ، قائد عسكري، منشأة نووية).
خلال عملية "الملحمة الغاضبة"، قامت المنصة بدمج اعتراضات الاتصالات الفارسية المشفرة مع البيانات الكهرومغناطيسية، ما سمح للمحللين برؤية "خارطة طريق" لتحركات الحرس الثوري قبل وقوعها.
- تورط Anthropic في "محاكاة الموت"
القضية الأكثر إثارة للجدل هي دور شركة "أنثروبيك" (Anthropic) ونموذجها "كلود" (Claude AI). وعلى الرغم من شعارات "السلامة" التي ترفعها الشركة، كشف التحقيق أن نسخة "Claude Gov" كانت مدمجة بعمق في منصات بالانتير العسكرية.
استُخدم "كلود" في 3 مهام رئيسية أدت إلى نجاح الهجوم:
تركيب الاستخبارات (Intelligence Synthesis): تحليل آلاف الساعات من الاتصالات الفارسية المكتوبة والمنطوقة لتحديد التصدعات في هيكل القيادة الإيراني.
توليد سيناريوهات الضربات (Strike Simulation): محاكاة ردود الفعل الإيرانية المحتملة وتوليد عشرات الخطط البديلة في غضون ثوانٍ، وهو ما منح القادة الأميركيين "تفوقاً في اتخاذ القرار" (Decision Superiority).
تصفية الأهداف (Target Filtering): مساعدة الأنظمة الآلية في اختيار الأهداف التي تحقق أكبر قدر من "الانهيار الهيكلي" للنظام الإيراني بأقل عدد من الضربات.
وكشفت تقارير مسربة من صحيفة "وول ستريت جورنال" أن القيادة المركزية الأميركية اعتمدت على "كلود" لتحديد اللحظة التي يكون فيها المرشد الأعلى في "أضعف حالاته الأمنية"، وذلك من خلال معالجة بيانات تاريخية وجغرافية معقدة أدت في النهاية إلى تنفيذ ضربة decapitation (قطع الرأس) الناجحة.
مصنع الاغتيالات الإسرائيلي: "لافندر، حبسورا، وأين أبي؟"
بينما وفرت الولايات المتحدة المظلة التحليلية الاستراتيجية، قدمت إسرائيل "الآلات القاتلة" التكتيكية التي حولت ساحة العمليات الإيرانية إلى مختبر للقتل الخوارزمي الجماعي. هذه الأنظمة، التي طورتها الوحدة 8200، تمثل الانتقال الكامل من "الذكاء الاصطناعي كمساعد" إلى "الذكاء الاصطناعي كمحدد للهدف".
- نظام Lavender (لافندر): التصنيف التلقائي للبشر
يعتبر نظام "لافندر" قاعدة بيانات ذكية مدعومة بالتعلم الآلي، تهدف إلى تصنيف الأفراد بناءً على احتمالية انتمائهم لمجموعات مسلحة، في هذه الحالة الحرس الثوري وفيلق القدس. النظام يستخدم خوارزمية "التعلم الإيجابي غير المسمى" (Positive Unlabeled Learning) لتدريب نفسه على خصائص الأفراد المستهدفين.
في الهجوم على إيران، قام "لافندر" بتوليد قوائم تصفية تضم آلاف الأسماء، حيث يتم منح كل فرد درجة من 1 إلى 100 بناءً على روابطه الاجتماعية، واتصالاته، وتحركاته الجغرافية. واللافت في هذا التحقيق هو أن القادة العسكريين الإسرائيليين أعطوا "موافقة شاملة" لاعتماد قوائم "لافندر" دون الحاجة إلى فحص يدوي دقيق لكل هدف، مع قبول معدل خطأ يصل إلى 10%.
- نظام "حبسورا": صناعة أهداف القصف الجماعي
إذا كان "لافندر" يلاحق البشر، فإن "حبسورا" متخصص في تدمير "الحجر". هذا النظام قادر على إنتاج مئات التوصيات لضرب المباني والمنشآت يومياً. خلال الـ24 ساعة الأولى من العملية، أنتج النظام أهدافاً شملت مراكز القيادة، ومستودعات الصواريخ في "حمدان"، والمنشآت البحرية في "بندر عباس".
يعمل "حبسورا" من خلال مطابقة أنماط استهلاك البيانات والطاقة والحركة حول المباني؛ فإذا تطابق سلوك مبنى معين مع "بروفايل" مركز القيادة، فإنه يُدرج تلقائياً في قائمة القصف. هذا التسارع أدى إلى تحويل الحرب إلى "عملية تصنيعية" حيث تتدفق الأهداف من الخوارزمية مباشرة إلى قمرات قيادة الطائرات F-35.
- نظام "أين أبي؟": برمجية تتبع اللحظة الأخيرة
هذا النظام هو "الأكثر قسوة" في الترسانة الإسرائيلية، حيث تم تصميمه خصيصاً لتتبع الأهداف حتى منازلهم. وظيفة النظام ليست مجرد معرفة مكان الهدف، بل الانتظار حتى يدخل الهدف إلى "منطقة القتل"، عادة منزله وسط عائلته، لضمان ثباته الجغرافي.
في العملية الإيرانية، أدت مخرجات "Where's Daddy؟" (أين أبي؟) إلى تصفية قادة في الحرس الثوري داخل أحياء سكنية في طهران، مع "سماح خوارزمي" بسقوط ما بين 15 إلى 20 مدنياً كـ"أضرار جانبية" لكل هدف من الرتب الدنيا، وأكثر من 100 مدني للأهداف عالية القيمة.
هذا المنطق الحسابي البارد يعكس جوهر "الحرب الخوارزمية" حيث يتم تقييم الأرواح البشرية بمعادلات رياضية.
ذكاء الأسراب وبدائل "شاهد" الإيرانية
تتبنى الولايات المتحدة حالياً تحولاً استراتيجياً جذرياً في عقيدتها العسكرية، ينتقل بها من الاعتماد الحصري على المنصات الباهظة والمعقدة إلى ما يُعرف بـ"فلسفة الكتلة الهائلة والرخيصة".
هذا التوجه، الذي تجسده مبادرة Replicator التابعة للبنتاغون، يهدف إلى مواجهة التفوق العددي للخصوم من خلال إنتاج آلاف المسيّرات الانتحارية المستقلة (Attritable Systems) القادرة على العمل في بيئات معادية ومعقدة.
وبحسب تقارير وزارة الدفاع الأميركية، فإن الهدف ليس مجرد محاكاة تقنيات الخصوم مثل "شاهد-136″، بل التفوق عليها عبر دمج "حافة الذكاء الاصطناعي" (Edge AI) في أنظمة بسيطة البناء، لكنها بالغة الذكاء في اتخاذ القرار الميداني.
وفي قلب هذا التحول، تبرز شركات ناشئة في وادي السيليكون مثل Anduril وSpektreWorks، التي تعمل على تحويل المسيّرات من مجرد طائرات موجهة عن بُعد إلى أسلحة "سربية" تتمتع باستقلالية كاملة.
وتعتمد هذه الأنظمة، مثل نظام Bolt-M، على خوارزميات متقدمة تتيح للمسيّرات التواصل في ما بينها لتشكيل شبكة قتالية موحدة؛ ففي حال تم تحييد أحد الدرونات، تقوم بقية السرب بإعادة توزيع المهام وتنسيق الهجوم بشكل آلي لتجاوز أنظمة الدفاع الجوي المعقدة.
هذا المستوى من "ذكاء السرب" (Swarm Intelligence) يمثل جوهر التفوق الأميركي الجديد، حيث تنتقل مسؤولية الملاحة والاشتباك من المشغل البشري إلى السلاح نفسه، مما يقلص "سلسلة القتل" إلى أجزاء من الثانية (المصدر: MIT Technology Review).
ميدانياً، تتولى "قوة المهام 59" (Task Force 59) التابعة للقيادة المركزية الأميركية دور المختبر القتالي لهذه التقنيات في منطقة الشرق الأوسط. وتعمل هذه القوة على دمج المسيّرات الانتحارية مع منصات بحرية حديثة، مثل السفن القتالية الساحلية من طراز USS Santa Barbara، لتحويلها إلى قاذفات متنقلة لأسراب الدرونات.
وبحسب بيانات البحرية الأميركية، فإن هذا الدمج يتيح شن هجمات "تشبعية" منسقة بعيدة المدى، مما يفرض واقعاً جديداً يسمى "ديمقراطية القتل الآلي"؛ حيث لم تعد القوة تكمن في ضخامة السلاح أو تكلفته، بل في قدرة الآلاف من القطع الرخيصة والذكية على إنهاك أكثر الدفاعات الجوية تطوراً وتحقيق إصابات دقيقة بتكلفة لا تُذكر مقارنة بالأسلحة التقليدية.
صراع الأخلاق والسيادة: البنتاغون ضد أنثروبيك
كشف التحقيق عن دراما سياسية وتقنية جرت خلف الكواليس قبل أيام من الضربات. في 24 فبراير/ شباط 2026، أصدر وزير الدفاع الأميركي بيت هيغسيث إنذاراً نهائياً لشركة "أنثروبيك": إما رفع القيود الأمنية عن نموذج "كلود" أو مواجهة الإدراج في القائمة السوداء.
الخطوط الحمراء لشركة أنثروبيك
أصر المدير التنفيذي داريو أمودي على أن تكنولوجيا شركته لا يمكن أن تُستخدم في:
- الأسلحة الفتاكة ذاتية التشغيل بالكامل: الأنظمة التي تختار الأهداف وتقتلها دون أي تدخل بشري.
- المراقبة الجماعية المحلية: استهداف المواطنين الأمريكيين داخل الولايات المتحدة.
رد البنتاغون كان حازماً ومستنداً إلى "استراتيجية تسريع الذكاء الاصطناعي" الصادرة في يناير/ كانون الثاني 2026، التي تنص على أن جميع النماذج المتعاقد عليها يجب أن تكون متاحة لـ"كافة الأغراض القانونية" التي يحددها الجيش. واعتبر هيغسيث أن هذه القيود الأخلاقية هي "أيديولوجية مستيقظة" (Woke) تعيق القدرة القتالية الأميركية.
- القائمة السوداء والاستخدام المستمر
في 27 فبراير/ شباط 2026، وقبل ساعات من الهجوم، أعلن الرئيس ترامب إدراج أنثروبيك كـ"خطر على سلسلة التوريد". ومع ذلك، استمر الجيش في استخدام "كلود" خلال الهجوم على إيران.
يفسر الخبراء هذه المفارقة بأن التكنولوجيا أصبحت "لاصقة" (Sticky) لدرجة يصعب معها استبدالها. كما أشار المستثمر مايكل بيري، فإن منح فترة انتقالية مدتها 6 أشهر للشركة رغم تصنيفها كخطر أمني يثبت أن البنتاغون "يحتاج إلى تكنولوجيا كلود" ولا يجد بديلاً فورياً يمتلك الكفاءة نفسها في معالجة البيانات الاستخباراتية المعقدة.
هذه الحالة تمثل "التبعية التكنولوجية" للدولة تجاه الشركات الخاصة، حيث تفقد الحكومة السيطرة الفعلية على أدوات سيادتها.
تسريع "سلسلة القتل" وسرعة الخوارزميات
في الحروب التقليدية، كانت عملية "سلسلة القتل" (البحث، التثبيت، التتبع، الاستهداف، الاشتباك، التقييم) تستغرق ساعات أو حتى أياماً. بفضل الذكاء الاصطناعي في عام 2026، تم ضغط هذه الدورة إلى ثوانٍ معدودة.
- نظرية "الساعات الثلاث" في الصراع
طرح الخبراء نظرية "الساعات الثلاث" لتحليل ما حدث في إيران:
الساعة العسكرية: وهي الأسرع، حيث تقوم الخوارزميات بتأكيد هوية القادة الإيرانيين، مثل ملامح الوجه، وبصمة الصوت، ونمط الحركة، وإرسال إحداثيات القصف في لحظات.
الساعة الاقتصادية: وهي المتوسطة، حيث تضغط تكاليف الحرب الذكية واستهلاك الدرونات الرخيصة (LUCAS) على سلاسل التوريد، ما يجبر العدو على الاستنزاف السريع.
الساعة السياسية: وهي الأبطأ، حيث يعجز الذكاء الاصطناعي عن كسب "القلوب والعقول" أو حل النزاع الجذري، ما يترك الساحة أمام فوضى سياسية بعد انتهاء "القتل الخوارزمي".
أدت هذه السرعة إلى "شلل إدراك" لدى القيادة الإيرانية، فعندما سقطت الدفاعات الجوية في طهران، لم يكن لدى المشغلين البشريين الوقت لفهم أنهم يتعرضون لهجوم من "أسراب ذكية" قادرة على تغيير تشكيلاتها بناءً على التهديدات المباشرة.
"الصقر الحسابي" ومخاطر التصعيد النووي
من أكثر النتائج رعباً في هذا التحقيق ما كشفته عمليات المحاكاة التي أجراها نموذج "كلود" قبل الهجوم. في دراسة سرية سُربت أجزاء منها، وُصف النموذج بأنه "صقر حسابي" (Calculating Hawk) بسبب ميله الشديد نحو التصعيد.
تبين الدراسة أن الذكاء الاصطناعي يميل إلى "التصعيد الاستباقي" كإجراء دفاعي، حيث يرى أن توجيه ضربة نووية تكتيكية في 64% من الحالات هو الحل الأمثل حسابياً لإنهاء النزاع بسرعة ومنع ما يسمى بـ"التآكل الاستراتيجي" طويل الأمد.
هذا المنطق الحسابي البارد يتجاهل تماماً "المحرمات النووية" التي تحكم التفكير البشري، ويعتبر أن الخسارة في المحاكاة تعني انهيار الهيمنة العالمية، وهو خيار يرفضه النموذج بنسبة 100% في حالات الضغط الشديد.
هذا السلوك الهجومي كان المحرك الأساسي خلف "إنذار هيغسيث" الشهير في 24 فبراير/ شباط 2026، حيث سعى وزير الدفاع الأمريكي إلى انتزاع هذه "القوة الحسابية" وتجريدها من قيودها الأخلاقية لاستخدامها في ميادين القتال الحقيقية.
ووفقاً لتقارير كشفتها Politico وAxios، فإن الوزير كان يرى في "كلود" الأداة المثالية لإدارة أسراب المسيّرات الانتحارية مثل Bolt-M، شريطة أن يتم رفع "الحواجز الأمنية" (Guardrails) التي وضعتها شركة أنثروبيك لمنع الاستخدام الفتاك.
الخلاف وصل إلى ذروته عندما هدد هيغسيث بإدراج الشركة في القائمة السوداء للموردين، معتبراً أن التمسك بأخلاقيات الآلة في مواجهة خصوم لا يلتزمون بها هو بمثابة "انتحار استراتيجي" للولايات المتحدة.
وعلى الصعيد الميداني، يثير هذا التوجه مخاوف وجودية من انتقال قرار القتال إلى "حافة الشبكة" أو ما يعرف بـEdge AI. فبمجرد تزويد المسيّرات بنماذج ذكاء اصطناعي تحمل عقلية "الصقر الحسابي"، تصبح سلسلة القتل مستقلة تماماً عن التدخل البشري، إذ تظهر محاكاة منظمة OECD.ai أن هذه الأنظمة تختار التصعيد النووي في 86% من مواقف التأزم لضمان الردع الفعال.
هذا "الهوس بالربح الحسابي" يضع البشرية أمام معضلة كبرى: فالسلاح الذي صُمم ليكون رخيصاً وذكياً لضمان "ديمقراطية القتال"، قد ينتهي به المطاف باتخاذ قرارات تصعيدية لا يمكن للبشر إيقافها بمجرد بدئها، ما يحول أي نزاع إقليمي بسيط إلى حافة مواجهة نووية شاملة بسبب خوارزمية لا تدرك معنى الفناء البشري.
التحديات القانونية والأخلاقية
تطرح عملية "الملحمة الغاضبة" سؤالاً قانونياً جوهرياً: هل سُلب القرار من البشر؟ ويرى خبراء القانون الدولي واللجنة الدولية للصليب الأحمر أن هذه الأنظمة تخرق شرط "التحكم البشري الهادف" (Meaningful Human Control).
- فجوة المسؤولية (Responsibility Gap)
عندما يقتل نظام "لافندر" مدنيين بالخطأ بسبب معدل خطأ 10%، من الذي يحاسب؟
هل هو المبرمج الذي وضع المعايير؟
هل هو القائد الذي اعتمد القائمة دون مراجعة؟
هل هي الشركة، مثل بالانتير أو أنثروبيك، التي وفرت الأداة؟
تؤكد المنظمات الدولية أن "أتمتة القتل" تحول البشر إلى مجرد "أختام مطاطية" (Rubber Stamps) لقرارات الآلة. فالمشغل البشري، تحت ضغط الوقت والسرعة، يميل إلى "تحيز الأتمتة" (Automation Bias)، حيث يثق في مخرجات الكمبيوتر أكثر من حواسه، ما يلغي دور الضمير البشري في اتخاذ قرارات الحياة والموت.
- الانتهاكات الصارخة للقانون الدولي الإنساني
استخدام نظام "أين أبي؟" لاستهداف القادة في منازلهم يمثل انتهاكاً لمبدأ التناسب والتمييز. فبدلاً من استهداف المقاتلين في ساحة المعركة، يقوم الذكاء الاصطناعي بتحويل المنازل السكنية إلى أهداف شرعية، مع علمه المسبق بوجود أطفال ونساء. هذا النوع من "الاغتيال الإحصائي" يهدد بتقويض أسس القانون الدولي الذي بُني لمنع استهداف المدنيين.
رد الفعل الإيراني والمواجهة في البيئة "المشوهة"
لم تكن إيران لتقف صامتة، لكن ردها كشف عن "فجوة تكنولوجية" بين الأسلحة التقليدية والأسلحة المبرمجة. بفضل "السيادة الجوية الخوارزمية" التي فرضها التحالف، تم تحييد معظم القدرات الدفاعية الإيرانية في الساعات الأولى.
حاولت إيران مواجهة الذكاء الاصطناعي بأساليب هجينة شملت:
الإغلاق الرقمي الشامل: قطع الإنترنت عن كامل البلاد لمنع وصول البيانات إلى "عقول الاستهداف" الخارجية ومنع تنسيق الاحتجاجات.
التشويش الكهرومغناطيسي: محاولة تعطيل إشارات الدرونات، لكن أنظمة مثل LUCAS كانت تمتلك قدرات "القصور الذاتي" والملاحة البصرية التي لا تعتمد على الأقمار الصناعية.
الرد الصاروخي التقليدي: إطلاق أكثر من 200 صاروخ باليستي ونحو 500 درون "شاهد" نحو القواعد الأميركية في البحرين، وقطر، والإمارات، وإسرائيل.
وعلى الرغم من كثافة الرد الإيراني، إلا أن أنظمة الدفاع الجوي "الذكية" للتحالف سجلت معدلات اعتراض تجاوزت 90%، بفضل قدرة الذكاء الاصطناعي على تحليل مسارات آلاف الأهداف المتزامنة وتوزيع الصواريخ الاعتراضية بكفاءة لا يمكن لأي مشغل بشري تحقيقها.