مستقبل الحروب: شركات التكنولوجيا وادعاء المعرفة في مجال الذكاء الاصطناعي العسكري

بقلم الزميل غير المقيم محمد معاذ
باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في منطقة الشرق الأوسط وشمال أفريقيا. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.

في أبريل 2025، اعتلى الملياردير الأمريكي بالمر لوكي، وهو مؤسس شركة “أندوريل” التي تعمل في مجال تكنولوجيا الدفاع، منصة مؤتمر “TED2025” لإلقاء محاضرة حول الاستخدام العسكري للذكاء الاصطناعي[1]. وطلب من الحضور تخيّل “هجوم صيني” مباغت وواسع النطاق على تايوان. وقد رسم لوكي صورة قاتمة: صواريخ باليستية تتساقط على الجزيرة، بينما تنتشر أعداد كبيرة من السفن الهجومية وحاملات الطائرات، إلى جانب هجمات سيبرانية تشلّ البنية التحتية الرقمية لتايوان. ومن خلال هذا السيناريو الخيالي، يواصل لوكي عرضه بطرح “رؤية بديلة” لحرب مستقبلية بين الصين وتايوان، حيث تلعب منتجات شركته الناشئة دورًا محوريًا. وهو يصور باقة من الأنظمة الذكية، تحت مظلة منصة “Lattice” التابعة لشركته، تسمح للمستخدمين على حدّ قوله، بنشر كثيف للأسلحة دون تعريض ملايين الأرواح للخطر ضد “الغزو الصيني”.
وما تقدّم به الملياردير لوكي، ليس مجرد شكل من أشكال الترويج لمنتجاته، بل هو مؤشر على كيفية استخدام شركات تكنولوجيا الدفاع للعروض الرقمية، لإظهار أنها على دراية عميقة بدور الذكاء الاصطناعي في مستقبل الحروب. وتكون هذه العروض مُصممة بدقة ومُحسّنة رقميًا، وغالبًا ما تكون مصحوبة بسيناريوهات مثل السيناريو الذي رواه لوكي، لتعكس رؤيتها الخاصة للذكاء الاصطناعي في الحروب. حيث توفر مصادر البيانات المعتمدة “إحاطة شاملة” لدوافع الخصم وتحركاته وأهدافه، وتقدم نماذج اللغات الكبيرة “مسارات عمل واضحة وفعالة لمستخدميها في ثوانٍ”. إلا أن هذا النهج، ينطوي على آثار سياسية وقانونية وأخلاقية ومجتمعية تستحق الاستكشاف والمناقشة، خاصة مع النفوذ المتزايد[2] لشركات التكنولوجيا التي تعمل في مجال الدفاع على غرار “أندوريل”.
العروض التقديمية وإدّعاء المعرفة
اليوم، تُقدّم شركات التكنولوجيا الدفاعية عروضًا عسكرية افتراضية لمنتجاتها القائمة على الذكاء الاصطناعي. ولعلّ شركتي “أندوريل” و”بالانتير” هما الأكثر بروزًا، بفضل حملاتهما التسويقية على مختلف منصات التواصل الاجتماعي[3]. وهناك شركات أمريكية ناشئة أخرى ذات توجه عسكري تحذو حذوهما مثل “Shield AI” [4]و”Saronic Technologies”[5] بالإضافة إلى شركات أوروبية، كما هو الحال مع “Tekever” [6]و”Helsing”[7]، التي تنتج مواد ترويجية مماثلة. وتزخر تلك الفيديوهات بمشاهد براقة، مصحوبة بمؤثرات صوتية، وآراء خبراء تقنيين وعسكريين وما إلى ذلك.
وهناك آليتان تستخدمهما شركات تكنولوجيا الدفاع عندما تدّعي امتلاكها “المعرفة والخبرة” في مجال الذكاء الاصطناعي ومستقبل الحروب:
أولًا، تُصوّر هذه العروض “الحرب الخوارزمية” كضرورة استراتيجية للجيوش. وفي هذا السياق، تشير السرديات البصرية والسياقات الخطابية التي تطورها هذه الشركات إلى جانب الخبراء الذين يظهرون في مقاطع الفيديو، أنه في الحرب القادمة، ستتخَّذ القرارات العسكرية السريعة والدقيقة، من خلال منصات القيادة والتحكم المدمجة بالذكاء الاصطناعي. وفي هذا السياق، يدّعي بالمر لوكي في مقال[8] نشره خلال العام الجاري أنه “رأى مستقبل الحرب” عندما زار أوكرانيا خلال الحرب الروسية. كما زعم أنه اختبر “عمليًا” كيفية انتصار الجيوش في حروب المستقبل، مؤكدًا أن “النجاح يعتمد على القدرة على تطبيق التقنيات الجديدة بشكلٍ أكبر”. ومن خلال تلك العروض، تقدم الشركات الناشئة ما يمكن وصفه بـ”خيال القدرة المطلقة”: أي إمكانية الحصول على المعرفة الكاملة من خلال تحليل البيانات المكثف. وبالتالي، فإنّ دمج الذكاء الاصطناعي في العمليات العسكرية يمثل “ضرورة استراتيجية للأمن والبقاء”.
ثانيًا، تعمل العروض والسرديات الافتراضية للشركات الناشئة على إظهار أنظمة الذكاء الاصطناعي باعتبارها “ضرورة أخلاقية” لقيادة المنافسة العالمية في هذه التقنية ضد ما تسميها “الدول الاستبدادية”. وقد تم عرض هذا الإطار بشكل مبطّن في محاضرة لوكي[9] خلال مؤتمر “TED2025″، حيث ذكر أن “التداعيات الأخلاقية للذكاء الاصطناعي في الحرب خطيرة. وإذا لم تكن الولايات المتحدة هي الرائدة في هذا المجال، فإن الأنظمة الاستبدادية، في إشارة إلى دول كالصين، سوف تفعل ذلك” وفق قوله. وعليه، فهو لا يشير فقط إلى أن كسب الحرب القادمة يعتمد على تطبيق تقنيات الذكاء الاصطناعي في الجيش على نطاقٍ واسع، بل يُقدّم هذا أيضًا باعتباره التصرف الصحيح والمسؤول أخلاقيًا. وبالمثل، يدّعي ألكسندر كارب، الرئيس التنفيذي لشركة “بالانتير”، في حديثٍ له[10]، أنهم “نشطاء سلام”، في إشارةٍ إلى شركته وغيرها من مُنتجي تطبيقات الذكاء الاصطناعي العسكرية، مُشيرًا إلى امتلاكهم “سلطةً أخلاقيةً”[11] لأنهم يسعون إلى توظيف هذه التقنية للأغراض العسكرية.
الآثار المترتبة والتداعيات
إنّ العروض التوضيحية الافتراضية لتقنية دعم القرار عبر الذكاء الاصطناعي، مثل منصة “Lattice” من “أندوريل”، تتجاوز فكرة ادّعاء الخبرة في الحروب. بل يمكن القول إن هناك تحريفًا لتعقيدات الحرب وحقائقها. فمثلًا لا نرى أن الفيديوهات تتضمن حال المدنيين أو تدمير المرافق المدنية. ويتمّ تصوير المشهد على أنه “ممارسةٌ نظيفةٌ”، تُجسّدها البيانات والمكننة للوصول إلى مخرجاتٍ خوارزمية. وتسعى هذه العروض إلى إقناع صناع القرار بزيادة الاستثمار في استراتيجيات وتقنيات “الحرب الخاطفة”، حيث تُفضّل السرعة والتجريب على السلامة والفائدة.
ثم إن شنّ الحرب ليس بالدقة والفعالية التي يجري تصويرها بها. وليس بالضرورة أن يؤدي توافر المزيد من البيانات إلى فهم أفضل لساحة المعركة. فعلى سبيل المثال، صرّح كارب بأن الجيش الإسرائيلي يُدمج قدرات برمجيات “بالانتير” في ممارسات الاستهداف الخاصة به[12]. ومع ذلك، يُظهر الدمار الكبير في غزة أن تقنيات الذكاء الاصطناعي كانت قاسية ضد المدنيين الفلسطينيين[13] ولم تكن دقيقة بالشكل المطلوب. وبالتالي، فشركات التكنولوجيا وبدعمها لسردية أن الاستهداف العسكري القائم على البيانات يعدّ أكثر كفاءة تلقائيًا، له آثار وخيمة. ذلك أن القرارات المتعلقة بالتزامات القانون الدولي الإنساني، لا تقتصر على تحليل البيانات الكمية فحسب، بل تتطلب أيضًا ممارسة القدرة المعرفية من قبل البشر.
قد يكون من المتوقع أن يزداد نفوذ شركات التكنولوجيا المتخصصة في الذكاء الاصطناعي العسكري. إلّا أن الإلحاح المتزايد لإدخال هذه التقنية في كل جانب من جوانب العمليات العسكرية يحمل في طياته تداعيات سياسية وأمنية وقانونية وأخلاقية بالغة العمق، خاصة في حالات النزاع المسلح. وهذه التداعيات تمسّ جوهر المساءلة الإنسانية وتوازن القوى العالمي، وتدفع نحو إعادة تعريف مفاهيم السيادة والأخلاق في القرن الحادي والعشرين.
[1] https://www.youtube.com/watch?v=ooMXEwl7N8Y
[2] https://opiniojuris.org/2025/02/11/platforms-on-the-frontline-the-rise-of-the-platform-model-in-defense-tech/
[3] https://x.com/anduriltech/status/1834252392583586289
[4] https://www.youtube.com/watch?v=XmZoDi0bBS0
[5] https://www.youtube.com/watch?v=WJjIV0D8zzo
[6] https://www.tekever.com/models/ar5/
[7] https://www.youtube.com/watch?v=zzg65k6WONY
[8] https://www.thefp.com/p/palmer-luckey-i-saw-the-future-of-war-taiwan
[9] https://www.youtube.com/watch?v=ooMXEwl7N8Y
[10] https://www.theguardian.com/technology/article/2024/may/17/ai-weapons-palantir-war-technology
[11] https://www.cambridge.org/core/journals/european-journal-of-international-security/article/military-demonstrations-as-digital-spectacles-how-virtual-presentations-of-ai-decisionsupport-systems-shape-perceptions-of-war-and-security/03F20FD3B84F32D281376F2FDC269C33
[12] https://www.thenation.com/article/world/nsa-palantir-israel-gaza-ai/
[13] https://icgers.com/2024/08/16/%d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%81%d9%8a-%d8%a7%d9%84%d8%ad%d8%b1%d9%88%d8%a8-%d8%b9%d8%af%d9%85-%d8%a7%d9%84%d9%8a%d9%82%d9%8a%d9%86/
