عندما تتنفس الخوارزميات ناراً: الذكاء الاصطناعي العسكري في حرب إيران 2026

“كنت أحدق في الشاشة أرى هدفاً محدداً بدائرة حمراء. لم يستغرق التحليل أكثر من 47 ثانية. في الماضي، كنا نحتاج أسبوعين لنقرر بنفس الدرجة من الثقة.”

 

 

هذه الشهادة التي ، تلخّص اللحظة الفارقة التي يعيشها العالم اليوم. في مارس 2026.

 

لم يكن الشرق الأوسط يشهد حرباً تقليدية فحسب، بل كان : الذكاء الاصطناعي العسكري.

 

ما حدث في السماء الإيرانية لم يكن ، بل كان سيُعيد تشكيل ميزان القوى العالمي لعقود قادمة.

 

قبل تسع سنوات، . بدأ مشروع مافن عام 2017 كمبادرة داخل البنتاغون تعتمد على تقنيات رؤية الحاسوب (Computer Vision) لتحليل مقاطع المراقبة الجوية وتصنيف الأهداف تلقائياً دون تدخل بشري مستمر.

 

تروي الصحفية الاستقصائية كاترينا مانسون في كتابها “مشروع مافن: عقيد في المارينز وفريقه وفجر حروب الذكاء الاصطناعي” الصادر عن دار Norton القصةَ الكاملة لهذا البرنامج، كاشفةً كيف .

بحلول يناير 2026، وصل الذكاء الاصطناعي العسكري إلى مرحلة النضج عبر اندماج مشروع مافن مع منصة بالانتير تحت مسمى “مافن الذكي” (Maven Smart System)، لينتج نظاماً .

 

علاوة على ذلك، أصدرت وزارة الدفاع الأمريكية في يناير 2026 وثيقتها الرسمية ““، التي تُقرّ صراحةً بأن الذكاء الاصطناعي بات مكوناً أساسياً لا أداةً مساعدة.

 

يعتمد النظام على أربع مراحل متتالية:

  1. — طائرات مسيّرة وأقمار اصطناعية تغذّي النظام ببيانات المراقبة لحظةً بلحظة

  2. — شبكات عصبية عميقة (Deep Neural Networks) تفلتر البيانات وتصنّف الأهداف المحتملة

  3. — الخوارزمية تكشف علاقات خفية بين تحركات الأهداف واتصالاتهم

  4. — يعرض النظام قائمة بالأهداف على ضابط مخابرات يملك صلاحية الموافقة النهائية

 

في الثامن والعشرين من فبراير 2026، انطلقت عملية “الغضب الملحمي” الأمريكية .

 

كشف الجنرال براد كوبر قائد القيادة المركزية الأمريكية أن النظام استطاع معالجة البيانات الاستخباراتية في ثوانٍ معدودة لتحديد أكثر من ألف هدف خلال أربع وعشرين ساعة فحسب.

 

في حين احتفظ . وبالفعل، وفّرت هذه القدرة الحسابية الهائلة للمخططين العسكريين وتيرة تنفيذ كانت مستحيلة في حروب العقود الماضية.

 

استعانت القوات الأمريكية إلى جانب ذلك بطائرات B-2 وطائرات مسيّرة انتحارية لتنفيذ الضربات. وصف محلل في البنتاغون لبلومبرغ ما يفعله نظام مافن بقوله: “، “.

 

في قلب العملية العسكرية الأمريكية كان يعمل نموذج لغوي ضخم (LLM) يُعرف بـ”” من تطوير شركة أنثروبيك، مدمجاً داخل منصة بالانتير لتخطيط الضربات ومعالجة الاستخبارات في إيران.

 

أكد مصدران مطّلعان على العمليات لـCBS News استخدامه رغم الجدل القانوني الدائر بين الشركة والبنتاغون. في المقابل، صرّح مدير البنتاغون التقني إيميل مايكل أن استخدام كلود شمل ““.

 

أشعل صداماً علنياً غير مسبوق: طالب البنتاغون بصلاحية استخدام كلود لـ”جميع الأغراض القانونية”، أما أنثروبيك .

صرّح الرئيس التنفيذي لأنثروبيك داريو أمودي: “. الخلاف مع الحكومة هو أكثر الأشياء أمريكيةً في العالم”.

 

وبالفعل، ردّ الرئيس دونالد ترامب ، فيما صنّف وزير الدفاع بيت هيغسث الشركة “خطراً على سلسلة التوريد الدفاعية”.

 

لم تمر الضربات الأمريكية دون ثمن إنساني مؤلم. تحقق نيويورك تايمز في حادثة، وهو خطأ وصفه محللون بأنه ناجم عن .

 

وعلى إثر ذلك، طالب أكثر من 120 عضواً في مجلس النواب وزيرَ الدفاع هيغسث بالإجابة عن سؤال محدد: ““.

 

في يناير 2026، نشرت وزارة الدفاع الأمريكية وثيقة “استراتيجية الذكاء الاصطناعي لوزارة الحرب” التي تعترف صراحةً بمبدأ “” (Human-in-the-Loop)، أي وجوب موافقة بشرية على الضربات.

 

لكنها تُقرّ في الوقت ذاته بأن ““. تضمنت الوثيقة تخصيص 3.2 مليار دولار لتطوير أنظمة الذكاء الاصطناعي العسكري خلال 2026-2027، ودعوة صريحة لشركات التكنولوجيا للتعاون مع وعود بتسهيل الإجراءات التنظيمية.

 

: “الوثيقة تحاول إضفاء شرعية أخلاقية على واقع وحشي. تقول إن الإنسان في دائرة القرار، لكنها تخلق نظاماً سريعاً لدرجة أن الإنسان لن يكون قادراً على فهمه، ناهيك عن مراجعته”.

 

وأضاف موقع The Conversation أن “؛ في اللحظة التي يصبح فيها النظام أسرع وأذكى من المشغل، يصبح البشر مجرد أختام مطاطية”.

 

لا ينفرد الجيش الأمريكي بهذا التوجه؛ تستخدم إسرائيل نظام “لافندر” (The Gospel) .

 

يُنذر هذا بدخول العالم حقبة جديدة من سباق التسلح الرقمي يتنافس فيه اللاعبون الكبار على أنظمة إدارة المعارك ذات الاستقلالية المتصاعدة.

 

يطرح موقع The Conversation سؤالاً : “من يُحاسَب عندما ترتكب الخوارزمية جريمة حرب؟ المبرمج؟ القائد العسكري؟ الشركة المصنّعة؟ أم الخوارزمية نفسها التي لا تملك شخصية قانونية؟”.

 

الإجابة الأمريكية الرسمية لا تزال غائبة، فيما خلصت صحيفة الغارديان إلى أن “. السؤال لم يعد هل سيستخدم الجيش الذكاء الاصطناعي في الحروب، بل: من يضمن ألا تُقتل مدرسة أطفال في طريق الخوارزمية التالية؟”.

 

هو نظام ذكاء اصطناعي عسكري طورته وزارة الدفاع الأمريكية بالشراكة مع بالانتير، يعتمد على الشبكات العصبية العميقة لتحليل بيانات المراقبة وتحديد الأهداف العسكرية بسرعة فائقة.

 

اندمج النموذج داخل منصة بالانتير لمعالجة المعطيات الاستخباراتية وتوليد توصيات الاستهداف، مع احتفاظ القادة البشريين بسلطة القرار النهائي.

 

، مما قد يُفضي إلى استهداف مواقع مدنية بسبب أخطاء في البيانات أو قصور في التدريب.

 

رفضت أنثروبيك استخدام كلود في ، مما أشعل نزاعاً مع البنتاغون وأفضى إلى قرار ترامب بإيقاف استخدام تقنيات الشركة في الوكالات الفيدرالية.

Related posts

الفرق بين Sleep وHibernate في الكمبيوتر

إزالة بطارية الهاتف: سلاح الخصوصية وقانون الاتحاد الأوروبي 2027

جوجل تتحدى إنفيديا: هل شريحة TPU Ironwood قادرة على كسر الاحتكار