الشائع

ما التكلفة الخفية للذكاء الاصطناعي على الأمن القومي؟

بقلم الزميل غير المقيم محمد معاذ

باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في منطقة الشرق الأوسط وشمال أفريقيا. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.

تعمل أدوات الذكاء الاصطناعي على إعادة تشكيل كيفية تعلم الأفراد وعملهم وحل المشكلات. وتتنوع بدءًا من التعلم الآلي ومعالجة اللغة الطبيعية التي تُشغّل Siri في أجهزة “آيفون”، وصولًا إلى مبادرات دفاعية رئيسية مثل “مشروع Maven”[1]، وهو اسم المشروع الذي تتعاون فيه شركة “غوغل” مع وزارة الحرب الأمريكية، الذي يُولّد قوائم أهداف بسرعة من خلال تجميع المعلومات الاستخبارية ومجموعة كبيرة من المدخلات. إلاّ أن مجموعة فرعية معينة من الأدوات – الذكاء الاصطناعي التوليدي، مثل برامج المحادثة الآلية ونماذج اللغة الكبيرة، التي يتم الإعلان عنها كدعم للبحث والكتابة – تنطوي على مخاطر بالنسبة للقوى العاملة في مجال الأمن القومي التي يمكن أن تحمل قراراتها عواقب وخيمة[2]. إذ قد يؤدي الاستخدام المنتظم لبرمجيات الذكاء الاصطناعي التوليدي إلى تآكل العديد من المهارات المعرفية التي يعتمد عليه الأمن القومي. وما لم يتحرك صناع السياسات، فإن الأدوات نفسها التي يتم تسويقها على أنها معززات للكفاءة يمكن أن تقوّض قدرة المتخصصين في الأمن القومي على التفكير النقدي، والاستجابة السريعة، والتفوق على الخصوم. وبالنظر إلى مدى ميل مجال الأمن القومي إلى تجنب المخاطر[3]، فإن هذه نتيجة تستحق الاعتراف بها ومعالجتها.

ومثل أي أداة، ترتبط قيمة الذكاء الاصطناعي بمدى نجاحه في تنفيذ مهمة معينة، وفي كثير من الحالات من المفترض أن  تجعل هذه التقنية المهام أسهل. من المعلم في الفصل الدراسي، إلى الطبيب في العيادة إلى الطيار في الطائرة المقاتلة، يتم بيع الذكاء الاصطناعي باعتباره معززًا للجهود البشرية. لكن لكل شيء ثمن، وهذه التقنية ليست استثناءً. وقد تم بالفعل تقدير تبعاتها، مثل آثارها على سوق العمل[4] وكذلك المناخ وإمدادات المياه، وما إلى ذلك. ولكن هناك أدلة متزايدة على أن الذكاء الاصطناعي التوليدي يفرض تكلفة صامتة على المهارات المعرفية البشرية. وبالتالي سيكون لهذا عواقب على القوى العاملة في الأمن القومي التي تعتمد على مهارات التفكير النقدي.

مهارات لا يمكن تحمل خسارتها

توصّلت دراسة مهمة[5] أجريَت في وقت سابق من هذا العام إلى أن استخدام الذكاء الاصطناعي التوليدي يحول تركيز الدماغ من جمع المعلومات وحل المشكلات والتحليل، إلى التحقق من المعلومات التي يولدها. وقد وجدت الدراسة أيضًا أن أدوات الذكاء الاصطناعي التوليدي تجعل من الصعب على العاملين في مجال المعرفة، إدراك الحاجة إلى التفكير النقدي خاصة عندما تُعتبر المهام أقل أهمية، وعندما يثق المستخدمون بتلك الأدوات ويعتمدون عليها. ويقول الباحثون إنه في حين قد يبدو من المعقول تفريغ التفكير النقدي في المواقف “المنخفضة المخاطر”، إلا أن هذا قد يُترجم إلى نقصٍ في الممارسة، ما يُضعف القدرات المعرفية مع مرور الوقت. وهذا يُشكّل مخاطر إذا كانت السيناريوهات عالية المخاطر. كما وجدت دراسة أخرى[6]، أنه عند الكتابة بمساعدة الذكاء الاصطناعي، تصبح قدرات التفكير النقدي متدنية مقارنة بأولئك الذين لم يستخدموها بكثرة أو لم يستخدموها على الإطلاق، ما يشير إلى أن الأداة قلّلت من الإبداع الطبيعي وتوليد الأفكار.

وتُلقي هذه النتائج الضوء على المتطلبات الحالية للقوى العاملة في مجال الأمن القومي، وتركّز على جوانب جديدة وأكثر حساسية. إنّ إحدى أهم المهارات التي ينبغي أن يتمتع بها محللو المعلومات الاستخباراتية، ومسؤولو وزارة الخارجية، وغيرهم من المتخصصين في الأمن القومي هي التفكير النقدي[7]. وتتداخل هذه المهارة مع جميع الوظائف ذات الصلة، سواءً في الشؤون الخارجية أو الخدمات اللوجستية وغيرها. ومع استخدام الذكاء الاصطناعي فإن التفكير النقدي سيضعف كما تشير الأبحاث التي عرضناها سابقًا. وللمفارقة، فقد بدأت وزارة الحرب الأمريكية (الدفاع سابقًا) في دمج أنواع مختلفة من الذكاء الاصطناعي في عام 2018[8]، ونشر استراتيجية التبني لهذه التقنية في عام 2023. وفي وقت سابق من هذا العام، أطلقت شركة OpenAI مبادرة لدمج “شات جي بي تي”[9] وأدوات أخرى في جميع أنحاء الحكومة الفيدرالية.

لا بديل عن الذكاء البشري

في الوسط البحثي، يتم التطرق إلى مصطلح الذكاء العام الاصطناعي (AGI) وهو مجال أبحاث نظري يحاول إنشاء برنامج بذكاء يشبه الإنسان والقدرة على التعليم الذاتي[10]. والهدف هو أن يكون البرنامج قادرًا على أداء المهام التي لم يتم بالضرورة تدريبه عليها أو تطويره من أجلها. ويروّج البعض أن الذكاء الاصطناعي العام سوف يتحقق في وقت قريب.

وفي ظل هذا الواقع، كيف لمتخصصي الأمن القومي اتخاذ القرارات في المستقبل؟ هل يُراد لهم ببساطة التحقق من مخرجات آلة تدعم الذكاء الاصطناعي والإشراف عليها، وما مدى اليقين من قدرة هذه التقنية على مواجهة المشاكل التي يمكن أن تواجه العاملين في هذا القطاع؟ ولو أخذنا الولايات المتحدة كمثال، يمكن القول إنّ الشعب الأمريكي يتوقّع من حكومته أن تحافظ على سلامته، ويواجه الأمن القومي بالنسبة للإدارة الأمريكية تهديدات متداخلة تشمل فك تشفير الإشارات النووية الصينية[11]، وإدارة التوغلات الروسية في المجال الجوي الأمريكي[12]، وتأمين المعادن الأساسية[13] التي يعتمد عليها كل شيء من معدات الدفاع إلى الإلكترونيات إلى الألواح الشمسية وما إلى ذلك. ولا شك بأن واشنطن ستحتاج إلى موظفين حكوميين لتعظيم مزايا الذكاء الاصطناعي في دعم ما يسمى بالدفاع الوطني. ولكن يبقى التحدي: هل ستنجح الإدارة في هيكلة واستخدام هؤلاء الموظفين الذكاء الاصطناعي وتقليل آثارها؟

إن المهمة الأساسية تنحصر في تشكيل تفاعل المجتمع بشكلٍ ممنهج مع الذكاء الاصطناعي – من المدرسة إلى مكان العمل – لا سيما مع أدوات الذكاء الاصطناعي التوليدي. وسيكون تحقيق التوازن بين الجوانب الإيجابية لهذه التقنية والمخاطر المحيطة أمرًا صعبًا. وينبغي أن يبدأ هذا التوازن باستكشافٍ رصينٍ وتحديدٍ دقيقٍ لمدى هذه المخاطر ومواطن تجلّيها. ويُعدّ “جيل زد” (Gen Z) وهو الجيل الذي وُلِد بين منتصف التسعينيات وأوائل العقد الثاني من الألفية الثالثة، سبّاقًا في التعامل مع المخاطر التي يُشكّلها الذكاء الاصطناعي على تعليمهم[14]. فهم يرون هذه التقنية أداةً تنطوي على مخاطر، إذ يدرك هذا الجيل أنها يُمكن أن تؤثر على طريقة تفكيرهم، ويريدون من مدارسهم مساعدتهم على فهم كيفية استخدامه على النحو الأمثل. وبقدر أهمية تطوير أدوات الذكاء الاصطناعي بمسؤولية، من المهمّ أيضًا اغتنام الفرصة للتطوير الاستباقيّ لمن سيستخدمونها. إنّ تأهيل القوى العاملة لضمان استخدامهم للذكاء الاصطناعي بما يُلبّي متطلبات العمل الحالية والمستقبلية يُعدّ تخطيطًا استراتيجيًا سليمًا.

وتتمثّل الخطوة الأولى في توفير منهج موحد لمحو أمية الذكاء الاصطناعي، يمكن تدريسه في الفصول الدراسية، ويغطي مصطلحاته وتاريخه، بالإضافة إلى كيفية استخدامه[15]. وفي هذا الإطار، يبدو أن الحكومة الأمريكية تسير بهذا الاتجاه[16]؛ ومع ذلك، لا ينبغي أن يكون هدف محو الأمية في مجال الذكاء الاصطناعي، كما تحدده إدارة الرئيس الأمريكي دونالد ترمب: ضمان “هيمنة أمريكا العالمية في هذه الثورة التكنولوجية” بقدر ما ينبغي أن يكون ضمان البراعة المعرفية لكل أمريكي أثناء استخدام تلك الأدوات الذكية.

أمّا الخطوة الثانية، فتكمن في التعبير عن قيمة للذكاء الاصطناعي بشكلٍ أفضل، وتحديد القطاعات التي يمكن لأدواته أن تلعب دورًا فاعلًا فيه. وقد تكون الخطوة الثالثة هي الأصعب على الإطلاق وهي تحديد المهارات التي يمكن الاستغناء عنها. وفي بعض المواضع، يحدث هذا بشكل طبيعي. فعلى سبيل المثال، لم تكن الوظائف قبل جائحة كوفيد-19 تتطلب الكثير من الإلمام ببرمجيات مثل “زووم”[17] ولكن عندما يفرض التقدم السريع للتكنولوجيا إيقاعه، فإن بعض المهارات تتلاشى للأفضل أو الأسوأ. أمّا الخطوة الرابعة والأخيرة هي تقع على عاتق صناع السياسات لتطوير حوكمة الذكاء الاصطناعي[18] التي ترعى تطوير الأدوات ونشرها بشكل مسؤول عبر القطاعات.

وبالنتيجة، وعلى الرغم من أهمية الذكاء الاصطناعي وأهمية تعزيزه في المجتمعات، لكن من المؤكد أن مهارة التفكير النقدي ستظل مهمة على الدوام. وبمعزل عن مدى التقدم الذي قد  تحققه هذه التقنية، إلا أنها ستبقى أدوات والأساس يكمن في العقل البشري.


[1] https://spacenews.com/pentagon-boosts-budget-for-palantirs-ai-software-in-major-expansion-of-project-maven/

[2] https://www.forkingpaths.co/p/the-death-of-the-student-essayand

[3] https://www.militarytimes.com/news/pentagon-congress/2021/10/28/risk-aversion-and-secrecy-are-costing-us-its-military-advantage-no-2-general-says/

[4] https://www.forbes.com/sites/jackkelly/2025/04/25/the-jobs-that-will-fall-first-as-ai-takes-over-the-workplace/

[5] https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf

[6] https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/

[7] https://careers.state.gov/career-paths/foreign-service/dimensions/

[8] https://www.war.gov/News/Releases/Release/Article/3577857/deputy-secretary-of-defense-kathleen-hicks-announces-publication-of-data-analyt/

[9] https://openai.com/global-affairs/introducing-openai-for-government/

[10] https://aws.amazon.com/what-is/artificial-general-intelligence/?nc1=h_ls

[11] https://www.cnas.org/publications/reports/assessing-chinas-nuclear-decision-making

[12] https://taskandpurpose.com/news/norad-f16s-russian-planes-alaska/?utm_campaign=dfn-ebb&utm_medium=email&utm_source=sailthru

[13] https://www.war.gov/News/News-Stories/Article/Article/4026144/securing-critical-minerals-vital-to-national-security-official-says/

[14] https://www.gallup.com/analytics/658901/walton-family-foundation-gallup-voices-gen-american-youth.aspx

[15] https://openlearning.mit.edu/news/ai-literacy-explained

[16] https://www.ai.gov/initiatives/education

[17] https://mondo.com/insights/evolution-of-job-descriptions-what-candidates-need-to-know/#:~:text=Now%2C%20listings%20commonly%20mention%20the,emphasis%20on%20the%20non%2Dquantifiable.

[18] https://online.ucpress.edu/gp/article-abstract/3/1/32362/119790/Artificial-Intelligence-Policy-Regimes-Comparing?redirectedFrom=fulltext


فريق عمل ICGER

لمّا كان لكلّ علمٍ قواعد كلاسيكية وقوانين مادية، فإنّنا في المركز الدولي للدراسات الجيوسياسية والاقتصادية نعمل على نقل السياسة من فنٍّ قائم على الاحتمالات والرجم بالغيب إلى علمٍ قائم على القواعد العلمية وتسخير التحليل السياسي الكلاسيكي والكوانتي لتأويل العلاقات الدولية وتفسير المعادلات الجيواستراتيجية ابتغاء بلوغ ومعرفة الوقائع الجيوسياسية وضبطها وإعادة تركيبها ومعرفة القوانين المادية التي تربط الواقعة السياسية بالواقعة الاقتصادية، وذلك بقصد منع وقوع الحروب وحلّ عقد الأزمات والفتن وابتغاء نشر السلام في العالم

اترك رد

زر الذهاب إلى الأعلى