هل نعي مخاطر عسكرة الذكاء الاصطناعي؟

بقلم الزميل غير المقيم محمد معاذ

باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في منطقة الشرق الأوسط وشمال أفريقيا. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.

لم يعد هناك مفر من الإقرار بأن الذكاء الاصطناعي بات منتشراً في كثير من المجالات. ومع خروج الأحداث الجيوسياسية عن نطاق السيطرة في بقاع كثيرة مثل غزة[1]، يبدو جلياً أن هذه التقنية، وعلى الرغم من كونها تشكّل قوة تغيير إيجابية نظرياً، إلا أنها أصبحت مثيرة للقلق. ذلك أن الوتيرة المتهورة وغير المسؤولة لتطوير الذكاء الاصطناعي تحتاج إلى قدر من الكبح الذي يبدو أنه مفقود ولا سيما في المجال العسكري.

ولكي نتعرف على وجهات النظر حول الذكاء الاصطناعي في هذا المجال، فمن المفيد مراجعة مقالة ظهرت في مجلة “وايرد” قبل بضع سنوات حول هذا الموضوع، والتي تناولت احتمالية شن حرب باستخدام هذه التقنية، ثم ناقش كيف تتحالف شركات التكنولوجيا الكبرى مع الجيوش لتعزيز استخدامها ضمن سباق التسلح[2].

وفي الآونة الأخيرة، رأينا شخصيات بارزة مثل الرئيس التنفيذي السابق لغوغل “إريك شميدت” يدق ناقوس الخطر بشأن الذكاء الاصطناعي في الحروب، بعد أن لعبت الشركة دوراً محورياً في الترويج له. في آذار (مارس) 2025، نشرت مجلة “Fortune”[3] أنّ شميدت، إلى جانب المؤسس المشارك لشركة “Scale AI” ألكسندر وانغ، ومدير مركز سلامة الذكاء الاصطناعي، دان هندريكس، حذروا من أن التعامل مع سباق التسلح العالمي للذكاء الاصطناعي قد يأتي بنتائج عكسية مثل مشروع “مانهاتن” سابقاً والذي أدى إلى إنتاج أول سلاح نووي في العالم وأرسى أسس سباق التسلح النووي خلال الحرب الباردة، ما أثار جدلا أخلاقيا مستمراً حتى اليوم[4].  وبدلاً من التسرع المتهور اقترحوا استراتيجية ردع وتعاون دولي، قبل أن يخرج الذكاء الاصطناعي عن نطاق السيطرة.

وفي الولايات المتحدة، أعطت إدارة ترمب الضوء الأخضر لتسريع تطوير الذكاء الاصطناعي، حيث أصبحت العلاقات العميقة بين نائب الرئيس الأمريكي، جي دي فانس، وشركات التكنولوجيا الكبرى واضحة أكثر فأكثر[5]. وكانت أولى الإجراءات الرسمية التي اتخذها ترمب الإعلان عن مشروع “ستارغيت”، وهو استثمار بقيمة 500 مليار دولار في البنية التحتية لهذه التقنية[6]. وقد أوضح كل من ترمب وفانس موقفهما بوضوح تام بشأن عدم محاولة إبطاء التقدم بأي شكل من الأشكال من خلال وضع قيود تنظيمية.

توسيع النقاش العام

يمكن القول، إن مخاطر عسكرة الذكاء الاصطناعي بدأت تحظى بتغطية إعلامية أوسع نطاقا مع تزايد التدقيق في الدوائر السياسية ووسائل الإعلام السائدة. لقد ناقشت مقالة في “بوليتيكو”[7] بسبتمبر الماضي، كيف أن نماذج الذكاء الاصطناعي مهيأة للحلول العسكرية والصراعات، إذ لاحظت الباحثة جاكلين شنايدر، التي تشغل إدارة مبادرة المحاكاة الحربية والأزمات في جامعة ستانفورد، نمطًا مقلقًا خلال تجارب أجرتها عام 2024؛ حيث منحت نماذج لغوية ضخمة مثل “جي بي تي-3.5″ و”جي بي تي-4″ و”كلود 2” دور صناعة القرار في سيناريوهات أزمة تحاكي غزو روسيا لأوكرانيا أو تهديد الصين لتايوان. وقد وجدت أن جميع النماذج تقريبًا، أظهرت تفضيلًا للتصعيد العدواني، واستخدام القوة النارية بشكلٍ عشوائي، وتحويل الأزمات إلى حروب مسلحة إلى حد إطلاق أسلحة نووية.

وقد يكون الموضوع مفاجئاً بالنسبة للكثيرين إلا أنه ليس كذلك. هناك تصور واسع النطاق بأن الذكاء الاصطناعي يعدّ تطوراً حديثاً إلى حد ما، لكن هذا ليس دقيقاً. والحقيقة هي أن تطوير هذه التقنية كان بمثابة استثمار ضخم لا يزال مستمراً من جانب الوكالات الحكومية لعقود من الزمن. وبحسب مؤسسة “بروكينغز”[8]، فمن أجل تعزيز سباق التسلح في مجال الذكاء الاصطناعي بين الصين والولايات المتحدة، لعبت حكومة الأخيرة بالتعاون مع الجيش الأميركي، دور الحاضنة لآلاف مشاريع القطاع الخاص بموجب قانون المبادرة الوطنية للذكاء الاصطناعي لعام 2020 وقد اعترف مدير العمليات في شركة OpenAI التي أنشأت “شات جي بي تي” بأن التمويل الحكومي كان المحرك الرئيسي لتطوير هذه التقنية لسنوات عديدة. بمعنى آخر، تُعتبر العديد من المبادرات القائمة على التكنولوجيا مجرد أحجار شطرنج في صراع على النفوذ يدور خلف الكواليس. فمن يمتلك أفضل أنظمة الذكاء الاصطناعي سيحقق ليس فقط التفوق التكنولوجي والاقتصادي، بل أيضًا الهيمنة العسكرية.

الاستيلاء على الذكاء الاصطناعي

إن دراسة تاريخ خطط الذكاء الاصطناعي العسكرية أمر ضروري لفهم تعقيداتها الحالية. وقد قدّم بيتر بيرن منظورًا آخر آخر يفتح العيون على التهديد المزدوج المتمثل بهذه التقنية والمجال النووي في كتابه “Into the Uncanny Valley: Human-AI War Machines”[9].

وفي عام 1960، نشر ليكليدر مقالاً بعنوان “التكافل بين الإنسان والحاسوب”[10] في مجلة متخصصة بصناعة الإلكترونيات، وذلك بتمويل من القوات الجوية الأميركية. وقد تناول الباحث ليكليدر أساليب دمج الذكاء الاصطناعي والبشر في آلات جاهزة للقتال.

وبعد أكثر من ستين عامًا، ها نحن نشهد على استخدام أنظمة الذكاء الاصطناعي العسكرية كما هو الحال مع الحرب الإسرائيلية في غزة والتي استخدمت فيها إسرائيل أنظمة مثل “لافاندر” و”غوسبل” و”فاير فاكتور” وغيرها من الأنظمة الذكية[11].

وفي الختام، وعلى الرغم من ترويج الجيوش والمؤسسات التقنية بأن العنصر البشري سيبقى “المسيطر”، يبدو أن متطلبات الحرب الحديثة تدل بأن هذه التقنية يتزايد استخدامها في المجال العسكري بشكلٍ مخيف. وللمفارقة، فقد عبّر العالم ألبرت أينشتاين عن قلقه من أن تتمكن التقنية من تجاوز إنسانية البشر[12]، علماً أنه لعب دوراً محورياً في تطوير تكنولوجيا الأسلحة النووية، ولعل ما صرّح به كان إدراكه للتداعيات العميقة لما ساهم في إنجازه.


[1] https://library.oapen.org/bitstream/handle/20.500.12657/98583/9783031815010.pdf?sequence=1&isAllowed=y

[2] https://www.wired.com/story/ai-powered-totally-autonomous-future-of-war-is-here/?_sp=38e1fa28-d85d-4500-bc87-a56246e2e1dd.1758891459641

[3] https://fortune.com/2025/03/06/eric-schmidt-warning-manhattan-project-superintelligent-ai/

[4] https://www.aljazeera.net/midan/2023/7/30/%D8%A7%D9%84%D8%AC%D8%A7%D9%86%D8%A8-%D8%A7%D9%84%D8%A2%D8%AE%D8%B1-%D9%85%D9%86-%D8%A7%D9%84%D8%AD%D8%B1%D8%A8-%D8%A7%D9%84%D9%86%D9%88%D9%88%D9%8A%D8%A9-%D9%83%D9%8A%D9%81-%D8%AC%D8%A7%D8%A1%D8%AA

[5] https://www.fastcompany.com/91275649/ai-summit-paris-brings-together-big-tech-u-s-vp-vance

[6] https://www.reuters.com/technology/artificial-intelligence/trump-announce-private-sector-ai-infrastructure-investment-cbs-reports-2025-01-21/

[7] https://www.politico.com/news/magazine/2025/09/02/pentagon-ai-nuclear-war-00496884

[8] https://www.brookings.edu/articles/how-will-ai-influence-us-china-relations-in-the-next-5-years/

[9] https://www.projectcensored.org/into-uncanny-valley-human-ai-war-machines/

[10] https://groups.csail.mit.edu/medg/people/psz/Licklider.html

[11] https://www.hrw.org/ar/news/2024/09/10/gaza-israeli-militarys-digital-tools-risk-civilian-harm

[12] https://web.cs.ucla.edu/~klinger/tenpp/11_einstein.html


فريق عمل ICGER

لمّا كان لكلّ علمٍ قواعد كلاسيكية وقوانين مادية، فإنّنا في المركز الدولي للدراسات الجيوسياسية والاقتصادية نعمل على نقل السياسة من فنٍّ قائم على الاحتمالات والرجم بالغيب إلى علمٍ قائم على القواعد العلمية وتسخير التحليل السياسي الكلاسيكي والكوانتي لتأويل العلاقات الدولية وتفسير المعادلات الجيواستراتيجية ابتغاء بلوغ ومعرفة الوقائع الجيوسياسية وضبطها وإعادة تركيبها ومعرفة القوانين المادية التي تربط الواقعة السياسية بالواقعة الاقتصادية، وذلك بقصد منع وقوع الحروب وحلّ عقد الأزمات والفتن وابتغاء نشر السلام في العالم

اترك رد

زر الذهاب إلى الأعلى