Search
Close this search box.

العمل الجماعي بين العنصر البشري والآلة في القوة الجوية المدفوعة بالذكاء الاصطناعي: التحديات والفرص المستقبلية لسلاح الجو

د. جين مارك ريكلي (Dr. Jean-Marc Rickli)- رئيس مخاطر الأمن العالمية والناشئة

Abstract

يشق الذكاء الاصطناعي طريقه ببطء نحو العمليات العسكرية، وذلك في ظل التقدمات في هذا النظام بما يدفع نحو الزيادة الكمية والنوعية من الاستقلال في ساحة المعركة. وذلك يستلزم تزايد التعايش بين المقاتلين والآلات في ظل التقدم التدريجي المتزايد في الإمكانات الاستقلالية. نظرًا لأن الآلات تتحول من مجرد أدوات بسيطة إلى زملاء عمل معاونين، فإن العمل الجماعي بين العنصر البشري والآلة سيصبح محور الحروب الحديثة. إن مفهوم الجناح الموالي في سلاح الجو يُظهر أن أهمية جودة التفاعل بين الإنسان والآلة لا تقل أهمية عن العمل الجماعي الناجح بين العنصر البشري والآلة، وذلك بسبب التطور التقني للآلة. وعليه فإن إدراك كيفية تحقيق الثقة بين الإنسان والآلة سيكون أمرًا جوهريًا في هذا الصدد. إن الذكاء الاصطناعي (AI) والتعلم الآلي سيزيد من أهمية الثقة والتي ستظل صعبة التحقيق، كما أنه وفي نفس ذات الوقت فقد يؤدي التقارب مع التكنولوجيات العصبية إلى تعقيد المهمة بشكل أكبر، وبالتالي ظهور تحديات جديدة.

The Author

د. جين مارك ريكلي (Dr. Jean-Marc Rickli) رئيس المخاطر العالمية والناشئة في مركز جنيف لسياسة الأمن (GCSP) في جنيف – سويسرا. يعمل كذلك رئيس مساعد لمجموعة العمل المعنية بالتحديات الأمنية الناشئة لشراكة حلف شمال الأطلنطي (الناتو) من أجل السلام (PfPC) وكبير مستشاري مبادرة الذكاء الاصطناعي (AI) في مجتمع المستقبل. وهو يمثل مركز جنيف لسياسة الأمن (GCSP) في الأمم المتحدة في إطار فريق الخبراء الحكومي المعني بأنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS). يعمل عضوًا في لجنة جامعة جنيف للبحوث الأخلاقية والمجلس الاستشاري Tech4Trust. لقد عمل د. ريكلي في السابق أستاذًا مساعدًا في قسم الدراسات الدفاعية في كلية كينجز كوليدج لندن – وفي معهد الأمن الدولي والمدني في جامعة خليفة.

فيديريكو مانتيلاسي (Federico Mantellassi) مسؤول الأبحاث والمشروعات في مركز جنيف لسياسة الأمن، وذلك منذ عام 2018. تركز أبحاث وكتابات فيديريكو على تداعيات التكنولوجيات الناشئة على الأمن الدولي والحرب والسياسة، بالإضافة إلى النظر في الآثار المجتمعية والأخلاقية الناجمة عن تطويرها واستخدامها. التكنولوجيات التي يركز عليها تشمل الذكاء الاصطناعي والتكنولوجيا العصبية وعلم الأحياء الاصطناعية. فيديريكو يعمل كذلك منسق لمبادرة مركز جنيف لسياسة الأمن (GCSP’s Polymath Initiative).

مقدمة

إن الذكاء الاصطناعي (AI) يشق طريقه على نحو متزايد في المجال العسكري. في الوقت الذي قد يعارض فيه المبالغين والمنكرين والبراجماتيين حدود المزايا التي يمنحها الذكاء الاصطناعي (AI) في ساحة المعركة، إلا أنه يُستخدم فعليًا كعنصر تمكين تحليلي ومُعرقل ومضاعف للقوة (Rickli and Mantellassi, 2023). لقد جسد الصراع في أوكرانيا هذا الاتجاه بشكل جليّ، حيث استُخدِم الذكاء الاصطناعي (AI) في تحسين دورة الاستهداف من خلال تقليل المدد الزمنية بين المستشعرات وأجهزة الإطلاق، وتحليل الاتصالات المعترضة، ونشر المعلومات الاستخباراتية وحرب المعلومات (Rickli, Mantellassi and Juillard, 2022, p.22). إن تطورات الذكاء الاصطناعي (AI) تُسّرع من الاستقلالية والأتمتة في الحرب ليس فقط من الناحية الكمية ولكن من الناحية النوعية أيضًا، وذلك فيما يخص مصفوفة المهام التي تنفذها الآلات – كليًا أو جزئيًا. مع اتساع التعايش بين العنصر البشري والآلة في ساحة المعركة، فإن مفتاح تحرير الإمكانات الكاملة للذكاء الاصطناعي (AI) يتأتى من الفهم الناجح لكيفية تحقيق أقصى استفادة من هذا التعاون بين العنصر البشري والآلة. ستركز هذه المقالة على الأهمية الناشئة للذكاء الاصطناعي (AI) والعمل الجماعي بين العنصر البشري والآلة في سلاح الجو، مع إيلاء اهتمام خاص لمفهوم “الجناح الموالي”، وذلك قبيل التركيز على مسألة الثقة. كما ستناقش هذه المقالة مدى إمكانية تقارب العمل الجماعي بين العنصر البشري والآلة في ظل وجود التكنولوجيات الناشئة الأخرى، وخاصة التكنولوجيا العصبية، وذلك لإعادة النظر في تحديد الامكانات المستقبلية.

الذكاء الاصطناعي (AI) والعمل الجماعي بين العنصر البشري والآلة

العمل الجماعي بين العنصر البشري والآلة (HMT) هو عملية يتم فيها الجمع بين حكمة البشر مع إمكانات الحاسوب في الاستجابة ومعالجة البيانات (Motley, 2022). ويعني ذلك في المجال العسكري أنه دمج العنصر البشري والذكاء الاصطناعي (AI) والروبوتات في أنظمة تعاونية ومترابطة ومستقلة (Hein and Maquaire, 2022). ينتشر التفاعل بين العنصر البشري والآلة فعليًا في المجالات العسكرية والمدنية، ولكن هذا النموذج التقليدي للتفاعل بين الآلات والبشر لا يشكل بالضرورة “فريق عمل” (Walliser et al 2019). لذلك فإنه لمن الضروري فهم الأمور التي تجعل هذا التفاعل في شكل فريق عمل، وذلك على نقيض التفاعل الذي تكون فيه الآلة مجرد أداة. ففي العمل الجماعي بين العنصر البشري والآلة، فإن الآلة تلعب دورًا فعالًا في تحقيق الأهداف، وذلك لأنها “تستنبط الاستنتاجات من المعلومات، وتستخلص رؤى جديدة من المعلومات، وتتعلم من التجارب السابقة، وتكتشف المعلومات ذات الصلة وتتيحها لاختبار الافتراضات، وتساعد في تقييم عواقب الحلول المحتملة، وتقنع بصحة المواقف المقترحة من خلال تقديم الأدلة والحجج، وتقترح الحلول وتوفر تنبؤات للمشكلات غير المعتادة (غير المقننة)، بالإضافة إلى المشاركة في صنع القرار الإدراكي مع العناصر البشرية الفاعلة.” (Bittner et al. 2020, p.3). في العمل الجماعي بين العنصر البشري والآلة (HMT)، فلا تُعتبر الآلة مجرد أداة تكميلية لوظيفة ما بتنفيذ التعليمات، ولكنها تعمل كعضو أو زميل في فريق العمل لديها القدرة على التنسيق مع نظائرها من البشر كما تدعم في اتخاذ القرار لتحقيق الهدف المنشود (Motley, 2022).

 إن مجرد استقلالية الآلة يُعد أمرًا غير كافٍ لتأهيل التفاعل بين العنصر البشري والآلة كفريق عمل، وذلك ما لم تكن الآلة تعمل جنبًا إلى جنب وبالتعاون مع العنصر البشري (2022). إن العمل الجماعي بين العنصر البشري والآلة (HMT)، يتكون من ثلاثة عناصر: الإنسان، والآلة، والتفاعل وطبيعة العلاقة بين الآلة والإنسان (Chahal and Konaev, 2021). إن الذكاء الاصطناعي (AI) يعمل على زيادة إمكانات وانتشار العمل الجماعي بين العنصر البشري والآلة (HMT) – لاسيما في العمليات العسكرية – فمع التقدم النوعي في الاستقلالية المدعومة بالذكاء الاصطناعي (AI) إلى جانب الزيادة الكمية في العدد الهائل للأنظمة المستقلة الموجودة على الساحة. لن تكون الآلات مجرد أدوات ولكنها ستكون جزء أساسي مكمل للعمليات، حيث ستشارك خلالها بفاعلية في صنع القرار (Walliser et al, 2019). في هذا السياق الجديد، فإن الاحتياج لنجاح الاقتران بين الإنسان والآلة بطرق تبرز أفضل الإمكانات لديهما، سيرسخ القاعدة للعمل الجماعي بين العنصر البشري والآلة (HMT).

إن التطورات التي تحدث في الذكاء الاصطناعي (AI) تؤدي إلى تحسن نوعي في مجموعة متنوعة من الوظائف التي يمكن أن تؤديها الأنظمة المستقلة، مما يضع هذه الأنظمة جنبًا إلى جنب مع العنصر البشري بطرق تعاونية وذات أهمية أكبر. إن الاستقلالية المدعومة بالذكاء الاصطناعي (AI) المدعومة بتزايد التعلم الآلي (ML) – تزيد من تعقيد المهام التي يمكن للآلات إكمالها بشكل مستقل وبدقة أكبر.  فعلى سبيل المثال، تستخدم Primer.AI تقنيات مختلفة من أبرزها معالجة اللغة الطبيعية NLP))، وذلك لدمج مدخلات معلوماتية متعددة (صوتية ومرئية ونصية) لتزويد الجيش الأوكراني بصورة استخباراتية فورية يتم توليدها بشكل مستقل خارج ساحة المعركة (Primer 2022). وبالمثل، فإن المهمات العسكرية المترقبة قد شقت طريقها إلى ساحة المعركة، معتمدة على الذكاء الاصطناعي (AI) لتحديد الأهداف والاشتباك معها. تتزايد استفادة أنظمة الأسلحة من تكنولوجيات الذكاء الاصطناعي مزدوجة الاستخدام (Dual-use AI) والتي تم تطويرها في القطاع الخاص. فعلى سبيل المثال، فقد أصدرت Deepmind خوارزمية جديدة في مايو 2022 – باسم “GATO” – والتي لديها القدرة على أداء 604 مهمة مختلفة (Deepmind, 2022).

فكلما زاد عدد الوظائف التي تؤديها الخوارزمية، كلما زادت كفاءتها الوظيفية حالها كحال الإنسان، مما يترتب عليه ازدياد قدرات العمل الجماعي بين العنصر البشري والآلة (HMT).

– د. جين مارك ريكلي 

فكلما زاد عدد الوظائف التي تؤديها الخوارزمية، كلما زادت كفاءتها الوظيفية حالها كحال الإنسان، مما يترتب عليه ازدياد قدرات العمل الجماعي بين العنصر البشري والآلة (HMT). تؤدي هذه التطورات أيضًا إلى زيادة كمية في عدد الأنظمة المستقلة، أو الأنظمة التي تتمتع بمستوى معين من الاستقلالية (Boulanin and Verbruggen, 2017). إن ظهور تكنولوجيا السرب – التي تم إثباتها بالفعل في التجارب – ستزيد من وتيرة الإنجاز في نفس هذا الاتجاه (Xin et al. 2022 and Metha 2017) تأتي ريادة العديد من هذه التطورات التكنولوجية داخل القطاع الخاص فهي بمثابة مكاسب في متناول يد القوى الأصغر والجهات الفاعلة غير الحكومية وعلى مستوى الأفراد، على النقيض من الأنظمة القديمة (Ashby et al. 2020, p.39, and Rickli 2020a). في ظل هذه الزيادة الكمية والنوعية في الروبوتات والأسلحة المستقلة، فسوف تتسارع وتيرة الحرب (Rickli 2019, pp.91-98). مع وجود الحروب الخوارزمية، فإن الطريقة الوحيدة للبشر للاحتفاظ بدور هادف في عملية صنع القرار ستكون بدمج ومزامنة المدخلات البشرية والآلية معًا (Walsh, 2021). إن العمل الجماعي بين العنصر البشري والآلة (HMT) أمرًا ضروريًا لسلاح الجو لخلق علاقات وتفاعلات تعاضدية بين العناصر البشرية والآلية.

في الوقت الذي تقوم فيه النجاحات والقدرات العالية للذكاء الاصطناعي بإعادة تهيئة العمل الجماعي بين العنصر البشري والآلة (HMT)، فإن القيود الموروثة والضعف النسبي للذكاء الاصطناعي (AI) تعني أن الآلات يجب أن تستمر في التعايش المشترك مع العنصر البشري (Rickli, 2020b). إنه من غير الواقعي افتراض أتمتة جميع جوانب الحرب في المستقبل القريب وافتراض أن الذكاء الاصطناعي (AI) سيحل محل الجميع – أو حتى المعظم – من مهام المحارب. لا يزال الذكاء الاصطناعي “محدودًا” في الوقت الحالي، فهو يتفوق على البشر بسهولة فقط في الأنشطة المقننة أو حيثما توجد قواعد ومقاييس واضحة (UK Ministry of Defence, 2018, p.40). بالإضافة إلى ذلك، فإن تطبيقات الذكاء الاصطناعي (AI) المحدودة هذه معرضة للهجمات العدائية وتحيزات البيانات التي قد تؤدي إلى إخفاقات مزرية (Scott-Hayward, 2022). ونظرًا لتفوق قدرات الذكاء الاصطناعي (AI) على قدرات البشر في التحليلات المتقدمة ومعالجة البيانات والارتباط الإحصائي، فإن ذلك سيساعد العنصر البشري في الحفاظ على الميزة المعرفية في ساحة المعركة، وفهم المضمون، والاعتماد على الحدس، وكسر القواعد عند الضرورة، والتكيف بطرق جديدة (Losey, 2022). إن تحديد أولويات العمل الجماعي بين العنصر البشري والآلة (HMT)، مدفوع على وجه التحديد بالحاجة إلى تحقيق أفضل النتائج من خلال الجمع بين خوارزميات الآلة مع العنصر البشري، حتى يستطيع كليهما الاستفادة من نقاط قوتهما (Jatho and Kroll, 2022). عندما يتم إسناد المهام الصحيحة للعنصر المناسب من الفريق (إنسان أو آلة)، ويكون التفاعل بين كليهما عالي الجودة، فحينها سيزداد تفوق العمل الجماعي بين الإنسان والآلة (HMT) إلى حد كبير ليفوق قدرات العنصر البشري والآلات عند عملهما منفردين (Jatho and Kroll ، 2022).

مبدأ الثقة والجناح الموالي (Loyal Wingman)

 

لقد تأقلم سلاح الجو – على وجه الخصوص – على متطلبات العمل الجماعي بين العنصر البشري والآلة (HMT) (Briant, 2021 p.7). إن تبني الذكاء الاصطناعي (AI) والتفاعل بين الإنسان والآلة يأخذ وضعه بصورة متزايدة في صميم القوات الجوية (Briant, 2021, p.7). تختبر العديد من البرامج رفيعة المستوى في جميع أنحاء العالم مبدأ “الجناح الموالي” المبني على أساس عمل الطائرات ذاتية التشغيل بدون طيار جنبًا إلى جنب لتتعاون مع الطائرات بطيار. إن الحاجة إلى العمل الجماعي بين العنصر البشري والآلة (HMT) في سلاح الجو تنبع من عدة مصادر. أولًا، إن دمج الذكاء الاصطناعي (AI) والروبوتات وأجهزة الكمبيوتر في العمليات يؤدي إلى تسريع إنتاج البيانات وجمعها، وهو ما قد يعرض المقاتلين لخطر “تحميل المعلومات الزائد” (Johnson et al, 2014). تتطلب أنظمة التشغيل التجريبية المعقدة مستويات عالية من التركيز وتعدد المهام، وذلك في ظل نطاق محدود لتحليل المزيد من البيانات بشكل فوري. وقد يخفف وجود الذكاء الاصطناعي (AI) بعضًا من هذا العبء. كجزء من أحد “برامج Vanguard”، فإن سلاح الجو الأمريكي يطور “Skyborg” – وهي “بنية لعمل جماعي من الطائرات المستقلة”، والتي ستتيح للطائرات بدون طيار مثل Kratos Valkyrie إمكانية الطيران ضمن فريق مع نظائرها من الطائرات بطيار (US Air Force, n.d). إن الجناح الموالي من الطائرات بدون طيار سيعزز أداء الطيارين من خلال تحمله لبعض مهام تحليل البيانات، ورسم خرائط الأهداف وأنظمة الدفاع الجوي، واقتراح ممرات طيران للطيارين (Losey, 2022). حيث سيكون لأنظمة الذكاء الاصطناعي (AI) القدرة على اقتراح مسارات عمل مناسبة للطيارين وفي الوقت المناسب. ثانيًا، استثمرت الصين – الند اللدود للولايات المتحدة – بشكل كبير في تطوير قدرات منع الوصول/ إغلاق المناطق (A2/AD)، مما يجعل البيئة التشغيلية شديدة التنافس وفتاكة (Grynkewich 2017). ولزيادة القدرة على البقاء في هذه البيئات المتنازع عليها بشدة – وبالنظر إلى ظهور تكنولوجيا السرب – فمن الممكن استخدام الأجنحة الموالية بشكل جماعي لاختراق ومروغ الدفاعات العدائية، أو العمل كشراك خداعية، أو عمل تأثيرات حركية (Perret, 2021).

 

 هناك عدد لا يحصى من التحديات التي تلعب دورًا في تعقيد تحقيق هدف عمل جماعي فعال بين العنصر البشري والآلة (HMT) للجناح الموالي، وهذه التحديات ليست كلها دائمًا ذات طبيعة فنية. هناك عوامل عديدة تؤثر على جودة التفاعل في العمل الجماعي بين العنصر البشري والآلة (HMT)، حيث يوضح الشكل 9.1 بعض من هذه العوامل. في واقع الأمر، لا ينصب تركيز الكثير من الأبحاث بالكامل على الخصائص والقدرات الفنية للعمل الجماعي بين العنصر البشري والآلة (HMT)، ولكن على طبيعة ونوعية العلاقة بين الإنسان والآلة وتفاعلهما. يعتمد العمل الجماعي الفعال بين العنصر البشري والآلة (HMT) بشكل جزئي فقط على تطور ومدى تعقيد الذكاء الاصطناعي (AI)، ولكن الاعتماد الأكبر يكون على جودة التفاعل بينهما. بنفس المنطق، وأسوة بالعمل الجماعي البشري – البشري (بين البشر وبعضهم البعض) يتم الأخذ في الاعتبار ما يلي: إن فعالية فرق العمل ليست مجرد تراكم قدرات ومدخلات لأعضاء منفصلين، ولكنها واقعيًا تعتمد على التكامل والتنسيق الناجح للمجهودات الفردية ضمن مهام الفريق والعمل الجماعي (Funke et al. 2022, pp.1-2). في العمل الجماعي بين العنصر البشري والآلة (HMT)، يجب على الإنسان أن يفهم 1) دوره – 2) نظام الذكاء الاصطناعي – 3) كيفية التفاعل مع نظام الذكاء الاصطناعي/زميل فريق العمل – 4) كيفية التفاعل مع زملائه الآخرين من البشر (Puscas, 2022, p.19).

الشكل 9.1: عوامل التأثير على جودة التفاعل بين العنصر البشري والآلة

إن الثقة عنصرًا حيويًا في العمل الجماعي بين العنصر البشري والآلة (HMT)، إلا أنها مفهوم شديد التعقيد في ظل وجود العديد من المتغيرات التي تؤثر عليها، ومن بينها الديموغرافيا والموقع الجغرافي والسياق وعوامل أخرى متعددة (Chahal and Konaev, 2021). يُعرّف ديفيس (Davis) وماير (Mayer) وسكورمان (Schoorman) الثقة على أنها “رغبة طرف في أن يكون ضعيفًا أمام تصرفات طرف آخر، وذلك ينبع من توقع هذا الطرف أن الطرف الآخر سيؤدي له عمل معين، وذلك بصرف النظر عن قدرته على مراقبة أو التحكم في ذلك الطرف الآخر.” (1995). لا يزال لا يوجد اتفاق حول ما إذا كانت المتغيرات والديناميكيات التي تحكم الثقة بين البشر وبعضهم البعض هي نفسها التي تؤثر على الثقة بين الإنسان والآلة (Celaya and Yeung 2019). ستعتبر هذه المقالة الثقة على أنها “ثقة الفرد في العول على استنتاجات التكنولوجيا وقدرتها على إنجاز أهداف محددة.” (Chahal and Konaev, 2021). كما لاحظت وزارة الدفاع البريطانية، أن أنظمة الذكاء الاصطناعي (AI) لن ينحصر دورها في تنفيذ مهام معينة فحسب، ولكن سيتوقف ذلك أيضًا على “مدى ثقة الجهات الفاعلة في آلاتها” (UK Ministry of Defence 2018, p.48). في واقع الأمر، فإنه وبدون الثقة فلن يصل الذكاء الاصطناعي (AI) إلى كامل إمكاناته لأن استخدامه قد يقتصر على سيناريوهات منخفضة المخاطر وليس في تقديم ميزة حقيقية (Motley, 2022). إن التحدي الذي يواجه سلاح الجو مرتبط بكيفية تعزيز الثقة في الذكاء الاصطناعي (AI) لزيادة العلاقة بين العنصر البشري والآلة من الناحية النوعية. التدريب وخصائص واجهات المستخدم تعتبر من العوامل الرئيسية في تحسين الثقة في الذكاء الاصطناعي (AI) وتحسين العمل الجماعي بين العنصر البشري والآلة (HMT).

 قد تتأثر الثقة في أنظمة الذكاء الاصطناعي (AI) بعدة أمور من بينها الفهم الميكانيكي وقدرة النظام على التنبؤ والألفة والمضمون (UK Ministry of Defence, 2018, p.48). كل هذه العناصر يمكن معالجتها – جزئيًا على الأقل – من خلال التدريب المناسب لغرس الثقة والفهم في أنظمة الذكاء الاصطناعي (AI)، بالإضافة إلى الاعتماد على واجهات مستخدم سهلة مما يتيح إمكانية التحكم في الآلات ويزيد الألفة ويرفع القدرة على التنبؤ (Puscas, 2022, p.1). ومع ذلك، فإن زيادة الاستقلالية المدفوعة بالذكاء الاصطناعي (AI) والدور الموسع لتعلم الآلة (ML) يعني أن التدريب وواجهات المستخدم المناسبين سيزدادا تعقيدًا وصعوبة في نفس الوقت وذلك بحسب ما ستستدعيه الضرورة أيضًا – ولكن كل ذلك قد ينعكس بتأثير سلبي على الثقة (Puscas, 2022, pp. 17-19). إن مشكلة “الصندوق الأسود” للذكاء الاصطناعي – والتي تعيق الفهم وإمكانية الشرح والقدرة على التنبؤ بما يقلل الثقة – تنمو فقط مع درجة الاستقلالية الممنوحة للآلات (Michel, 2020). نظرًا لأن تعليم خوارزميات التعلم الآلي (ML) يتغير بمرور الوقت، فيجب على الزملاء من البشر/الطيارين أن يعرفوا كيف تتغير الآلة، وما الذي تتعلمه، وكيف سيؤثر ذلك على نتائجها. وبالتالي، فإن تعقيد الأتمتة يجعل التدريب المستمر أمرًا أساسيًا ولكنه سيزداد صعوبة أيضًا. وبالمثل، تصبح القدرة على استخدام الواجهات ذات أهمية أكبر ولكنها ستزداد تعقيدًا كذلك وفي الوقت نفسه. نظرًا لأن الزملاء من الآلة يوفروا مزيدًا من الاستقلالية وما يرتبط بها من عمليات خوارزمية معقدة، فإن مخرجاتها ستكون أكثر صعوبة لشرحها والتواصل معها (Puscas 2022, pp.22-24). إن هذا التعقيد قد يساهم بدوره في تقليل الثقة في النظام.

نظرًا لأن تعليم خوارزميات التعلم الآلي (ML) يتغير بمرور الوقت، فيجب على الزملاء من البشر/الطيارين أن يعرفوا كيف تتغير الآلة، وما الذي تتعلمه، وكيف سيؤثر ذلك على نتائجها. وبالتالي، فإن تعقيد الأتمتة يجعل التدريب المستمر أمرًا أساسيًا ولكنه سيزداد صعوبة أيضًا.

– د. جين مارك ريكلي

إن انعدام الثقة يؤثر على العمل الجماعي بين العنصر البشري والآلة HMT))، مما يقلل من كفاءة وإمكانات فرق العمل التي تجمع بين الإنسان والآلة وبالتالي التقليل من احتمالية الاستخدام التشغيلي لهما. وبالرغم من ذلك، فإن الثقة الزائدة في الآلة قد يكون له كذلك تأثير سلبي على العمل الجماعي بين العنصر البشري والآلة (HMT). (Scharre, 2018, p.144; Puscas, 2022, p.10). في الواقع، قد تؤدي زيادة الاستقلالية في الأنظمة إلى “معضلة الأتمتة”، حيث يتناسب تشتت تركيز المستخدم طرديًا مع تعزيز الأتمتة والموثوقية المعتبرة في النظام (Puscas, 2022, p.10). ومن هذا المنطلق قد يؤدي تعقيد الآلة إلى تقليل الثقة أو زيادتها إلى مستويات مفرطة. لذلك، فيحتاج المشغلون العسكريون إلى جرعة صحية من الشكوك في الأنظمة المستقلة التي يشغلونها أو يشرفون عليها، مما يستلزم القدرة على تقييم حدود النظام بدقة (Scharre, 2018, p.144). يؤكد ذلك مرة أخرى على أهمية التدريب المناسب لفهم النظام، خشية أن يصبح “مستقلاً بشكل كامل نتيجة الإهمال” (Puscas, 2022, p.18). في عام 2003، أدت سلسلة من الحوادث من بينها نظام باتريوت (Patriot System) الأمريكي – وهو نظام دفاع جوي بنمذجة بشرية (human-in-the-loop) – إلى نشوب حرب بين الأشقاء بسبب الثقة الزائدة والتدريب غير المناسب مما جعل النظام مستقلاً بالكامل من الناحية العملية (Scharre, 2018, p.139-143).

التقارب مع التكنولوجيا العصبية (Neurotechnology)

إن صعود أي تكنولوجيا فردية ناشئة لا يحدث من فراغ، أو أنه محض الصدفة بمعزل عن الابتكارات التكنولوجية الأخرى. ومن ثم، فإن التقارب بين مجموعات التكنولوجيات الناشئة يتطلب اهتمامًا دقيقًا لتوقع التحديات المستقبلية الناشئة من التفاعلات غير المتوقعة بين هذه التكنولوجيات (Rickli and Mantellassi 2022). إن التفاعلات البشرية التي تحدث دائمًا باستخدام الواجهات (مثل الشاشات) تطوي حقيقةً في ثناياها بعض القيود عن كفاءتها. إن التجارب التشغيلية التي توظف الجناح الموالي تضمنت مشغلين متميزين يوجهون زملاءهم من الآليين باستخدام الأجهزة اللوحية المحمولة يدويًا (Trevithick, 2021). إحدى طرق التخلص من الاعتماد على الواجهات تتمثل في توصيل الآلة مباشرة بالدماغ البشري باستخدام مجموعة من التكنولوجيات التي تسمح بالتفاعل ثنائي الاتجاه بين الدماغ والآلات. إن التقارب المستمر بين مجالات الذكاء الاصطناعي (AI) والتكنولوجيا العصبية – مجال العلوم الذي يسعى لربط المكونات التكنولوجية بالجهاز العصبي – قد يسمح بالتفاعل الأمثل بين الإنسان والآلة مستقبلًا (Rickli 2020c).

 

إن جودة العلاقة بين البشر والآلات أمر ضروري للعمل الجماعي بين العنصر البشري والآلة HMT))، كما أنها تتأثر بخصائص الواجهات. قد يكون التعامل مع واجهة خارجية (شاشة – جهاز لوحي – كمبيوتر) للتحكم أو التفاعل مع آلة أو عميل شبه مستقل أمر ذهني مطلوب للغاية، مما قد يترتب عليه تشتيت التركيز وعدم الرضا عن النفس (Puscas 2022, pp. 9-10). قد تؤدي التطورات في التكنولوجيات العصبية إلى حل مشكلة حاجة الطيارين إلى التفاعل مع الروابط الخارجية مثل الشاشات أو وسائل العرض المستخدمة في العرض والاتصالات وإرسال ونقل المعلومات من وإلى الآلة. ستعمل واجهات الدماغ والحاسوب (BCIs) بسلاسة على دمج تحكم الجناح الموالي في العمليات الإدراكية للطيارين بطرق تقلل الحمل الذهني الزائد، وتسرع حلقة “الملاحظة – التوجيه – القرار – التنفيذ” (OODA) الموضحة أدناه في الشكل 9.2 بالإضافة إلى إزالة المهمة المعقدة لتصميم الواجهات. يمكن أن تعمل واجهات الدماغ والحاسوب (BCIs) على “تسهيل تعدد المهام بسرعة التفكير”، مما يسمح للطيارين “التفاعل مع وسائل اتخاذ القرار الذكية” والشراكة متعددة الأغراض (Bartels et al, 2020, p.13). لقد قامت وكالة المشاريع البحثية الدفاعية المتقدمة (DARPA) – التي تبذل جهودًا مستمرة – لتفعيل استخدام واجهات الدماغ والحاسوب (BCIs)، وذلك بمحاكاة المعارك المعتمدة على الكلاب والتي تدخل فيها الخوارزميات “داخل” حلقات “الملاحظة – التوجيه – القرار – التنفيذ” (OODA) العدائية بغرض هزيمة الخصوم من البشر وذلك باتخاذ قرارات أسرع من السابق (Tegler, 2020).

 

الشكل 9.2: تمثيل بأسلوب لوحة التحكم لحلقة الملاحظة - التوجيه - القرار - التنفيذ (OODA)

إن تقارب التكنولوجيات يعمل على دمج الجودة الموجودة في كل تكنولوجيا مع الأخرى مما يسرع من تطورها، ويؤدي إلى ابتكارات جديدة لم تكن ممكنة من قبل. وبالرغم من ذلك، فإن التقارب يتيح أيضًا نقل المخاطر المرتبطة بالتكنولوجيات الفردية من واحدة لأخرى، مما يؤدي أحيانًا إلى خلق تحديات جديدة تمامًا وغير متوقعة. ومن ثم، ففي الوقت الذي قد تجعل فيه التكنولوجيات العصبية – مثل واجهات الدماغ والحاسوب (BCIs) – العمل الجماعي بين العنصر البشري والآلة (HMT) أمرًا مناسبًا وفي الوقت المناسب، فإنها قد تقدم أيضًا مخاطر جديدة وأكثر تعقيدًا. بالنسبة للتكنولوجيات العصبية، فإن هذه المخاطر تشمل المعضلات الأخلاقية لخصوصية البيانات والسلامة الذهنية والعقلية، وسبل جديدة للتلاعب بالدماغ وشن حرب معرفية، فضلاً عن القدرة غير المسبوقة على الترصد، فعلى سبيل المثال لا الحصر (لمزيد من المعلومات، انظر Rickli and Ienca ، 2021).

الخاتمة

تؤدي التطورات في الذكاء الاصطناعي (AI) إلى زيادة نوعية وكمية الآلات المدفوعة بالذكاء الاصطناعي (AI) ذات القدرات الذاتية المستقلة في العمليات العسكرية. ومع ذلك، فإن الهشاشة النسبية للذكاء الاصطناعي (AI) اليوم تشير إلى أن المقاتلين سوف يتعايشون مع الآلات في ساحة المعركة، بمرور الوقت كأعضاء ضمن فريق العمل. ستحتاج القوات الجوية إلى الاستثمار في القدرات غير المأهولة التي يمكن الاستغناء عنها مثل الجناح الموالي للتغلب على التحديات المتعلقة بعبء المعلومات والحمل الذهني الزائد، وانخفاض القدرة على البقاء في الأجواء المتنازع عليها بشدة. يكمن التحدي المتمثل في العمل الجماعي بين العنصر البشري والآلة (HMT) في مركز قدرات القوة الجوية مستقبلًا. إن مفتاح ذلك كله هو تحسين العلاقة بين الإنسان والآلة، وليس فقط الخوارزميات التي تجعل الجناح الموالي قادرًا على الطيران. إن ضمان ثقة الطيارين في وظيفة وأداء الأنظمة المستقلة المدفوعة بالذكاء الاصطناعي AI))، والفهم القوي لقيودها المتأصلة لهو أمر بالغ الأهمية. وبذلك تبرز أهمية التدريب وواجهات المستخدم عند معالجة هذه القضايا. إن فهم كيفية تأثير الاستقلالية على الثقة والتأثير على العلاقة بين الطيارين وزملائهم الآليين في الفريق سيكون أمرًا حاسمًا لتطوير العمل الجماعي بين العنصر البشري والآلة (HMT). إن التكنولوجيات العصبية – وتحديدًا واجهات الدماغ والحاسوب (BCIs) – هي مجالًا ناشئًا من المحتمل أن يتقارب مع مبدأ الجناح الموالي ويسمح لمزيد من التواصل الأمثل بين الإنسان والآلة. إن توقع التحديات الجديدة التي تأتي من استبصار التقارب بين واجهات الدماغ والحاسوب (BCIs)، والأجنحة الموالية والذكاء الاصطناعي (AI) ستكون هي المفتاح لتوجيه تطوير القوة الجوية في المستقبل.

المراجع:

Airforce Research Lab (2022). Skyborg.

Ashby M., Bourdeaux B., Curriden C., Grossman D., Kilma K., Lohn A., Morgan F,E. (2020) Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World. RAND Corporation.

 Bartels E.M., Binnendijk A., Marler T. (2020) Brain-Computer Interfaces: US Miltiary Applications and Implications, an Initial Assessment. RAND Corporation.

Bittner E., Briggs R.O., Elkins A., Maier R., Merz A.B., Oeste-Reis S., Randrup N., Seeber I., Sollner M., Schwabe G., de Veerde G-J., de Veerde T. (2020) “Machines as teammates: A research agenda on AI in team collaboration” Information and Management, 57(2).
Available at: https://doi.org/10.1016/j.im.2019.103174

Boulanin V., Verbruggen M. (2017) Mapping the Development of Autonomy in Weapon Systems. Stockholm, International Peace Research Institute.

Briant R. (2021) La synergie homme-machine et l’avernir des opérations aériennes. Institut français des relations internationales, n106.

Celaya A., Yeung N. (2019) “Confidence and trust in human-machine teaming.” Homeland Defense & Security Information Analysis Center, 6(3).

Chahal H., Konaev M.(2021) “Building trust in human-machine teams.” Brookings Institute, February 18.

Deepmind (2022) A Generalist Agent.
Available at: https://www.deepmind.com/publications/a-generalist-agent

Funke G., Greenlee E.T., Lyons J.B., Matthews G., Tolston M.T., (2022). “Editorial: Teamwork in Human-Machine teaming.” Frontiers in Psychology. doi: 10.3389/fpsyg.2022.999000

Grynkewich A. (2017) “The future of air superiority, part III: Deveating A2/AD.” War on the Rocks. January 13.
Available at: https://warontherocks.com/2017/01/the-future-of-air-superiority-part-iii-defeating-a2ad/

Hein S., Maquaire E. (2022) “Human-Robot teaming Research Initiative for a combat aerial network (Hurricane).” Assets Plus.
Available at: https://assets-plus.eu/wp-content/uploads/2022/05/HURRICANE.pdf

Jatho E., Kroll J.A. (2022). “Artificial intelligence: Too Fragile to Fight?” U.S Naval Institute. Available at: https://www.usni.org/magazines/proceedings/2022/february/artificial-intelligence-too-fragile-fight

Johnson, S.T., Porche I.R., Tierney, S., Saltzman E., Wilson B. (2014). Big Data: Challenges and Opportunities. In Data Flood: Helping the Navy Address the Rising Tide of Sensor Information. RAND Corporation.

Losey S. (2022). “Air Force must build trust to add drone wingman, report says.” Defense News, October 13.
Available at: https://www.defensenews.com/air/2022/10/13/us-air-force-must-build-trust-to-add-drone-wingmen-report-says/

 Mayer, R. C., Davis, J. H., & Schoorman, F. D. (1995). “An Integrative Model of Organizational Trust.” Academy of Management Review, 20(3), 709–734. doi:10.2307/258792

Mehta, A. (2017). “Pentagon launches 103 Unit Drone Swarm.” Defense News, January 10.  Available at: https://www.defensenews.com/air/2017/01/10/pentagon-launches-103-unit-drone-swarm/

Michel A.H., (2020). The Blackbox, Unlocked: Predictability and Understandability in Military AI.’ United Nations Institute for Disarmament Research, Geneva, Switzerland.

Motley J.O. (2022) “The testing and explainability challenges facing human-machine teaming.” Brookings Institute, March 31.

Perret B. (2021), “Loyal wingmen could be the last aircraft sanding in a future conflict.” Australian Strategic Policy Institute. November 22.
Available at: https://www.aspistrategist.org.au/loyal-wingmen-could-be-the-last-aircraft-standing-in-a-future-conflict/

Primer (2022) AI Tool for Monitoring Fast-Evolving Information.
Available at: https://primer.ai/news/ai-tool-for-monitoring-fast-evolving-information/

Puscas I., (2022) Human-Machine Interfaces in Autonomous Weapon Systems Considerations for Human-Control. United Nations Institute for Disarmament Research. Geneva. Switzerland, pp.9-10

Rickli J-M. (2020a). “Surrogate Warfare and the Transformation of Warfare in the 2020s,” Observer Research Foundation, Mumbai, 30 December.

Rickli J-M. (2020b). “Containing Emerging Technologies’ Impact on International Security,” in Jonsson, Oscar (ed.). Modern Warfare: New Technologies and Enduring Concepts. Stockholm, Transatlantic Leadership Forum, pp, 76-84.

Rickli J-M. (2020c). “Neurotechnologies and Future Warfare,” Nanyang Technological University, Singapore, 7 December.

Rickli J-M. (2019). The Destabilizing Prospects of Artificial Intelligence for Nuclear Strategy, Deterrence and Stability, in Boulanin, Vincent (ed.). The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk: European Perspectives. Stockholm: Stockholm International Peace Research Institute, Volume I, pp. 91-98.

Rickli J-M. and Ienca M. (2021). “The Security and Military Implications of Neurotechnology and Artificial Intelligence” in Friedrich and al. (eds). Clinical Neurotechnology meets Artificial Intelligence. Berlin: Springer, pp. 197-214.

Rickli J-M. and Mantellassi F. (2023) Artificial Intelligence in Warfare: Military Uses of AI and their International Security Implications. In Michael R., and Bitzinger R.A. (eds) The AI Wave in Defense Innovation: Assessing Military Artificial Intelligence Strategies, Capabilities, and Trajectories. Routledge, forthcoming.

Rickli J-M. and Mantellassi F. (2022). Our Digital Future: The Security Implications of Metaverses. Geneva, GCSP Strategic Security Analysis.

Rickli J-M, Mantellass F. and Julliard V. (2022) Implications for the Future of Warfare. In Greminger, T., and Vestner, T. (eds) The Russia-Ukraine War’s Implications for Global Security: A First Multi-issue Analysis. Geneva Centre for Security Policy.

United Kingdom Ministry of Defense (2018). Joint Concept note on Human-Machine Teaming.

Scharre, P. (2018) Army of None: Autonomous Weapons and the Future of War. New York. W.W Norton & Company.

Scott-Hayward S. (2022). “Securing AI-based Security Systems.” Geneva Centre for Security Policy. Strategic Security Analysis, Issue 25.

Tegler E. (2020). “AI Just Won A Series Of Simulated Dogfights Against A Human F-16 Pilot, 5-0. What Does That Mean?” Forbes. August 20.

Trevithick, J. (2021). “Here’s how Fighter Pilots Could Control “loyal Wingmen” via a Tablet on Their Thigh.” The Warzone. September 7.

Walliser, J. C., de Visser, E. J., Wiese, E., & Shaw, T. H. (2019). Team Structure and Team Building Improve Human–Machine Teaming With Autonomous Agents. Journal of Cognitive Engineering and Decision Making, 13(4), 258–278. 

Walsh, B. (2021). “An insider’s view of algorithmic warfare.” Axios Future. November 18.
Available at: https://www.axios.com/2021/11/17/robert-work-artificial-intelligence-warfare

Xin, Z. et al. (2022) “Swarm of Micro Flying Robots in the Wild.” Science Robotics, vol 7, issue 66.

Table of Contents

Read More

تمثل نماذج الابتكار المفتوح (OI) إستراتيجية جديدة تحث على تحول هائل في منظمات الدفاع مثل تحول القوات الجوية وشركائها في الصناعة، وخصوصًا الشركات الرائدة في تكامل ودمج الأنظمة. أصبح التحول من نماذج الابتكار المنغلق إلى نماذج الابتكار المفتوح (OI) أمرًا ضروريًا، ولكن ذلك يعني تغييرات نموذجية يجب إدارتها على مستوى تصميم وتقييم البرامج العسكرية المعقدة.

د. فاليري ميريندول (Dr. Valérie Merindol)- مديرة مساعدة لرئيس newPIC - كلية باريس للأعمال، فرنسا

إن تطوير الإمكانات العسكرية عملية معقدة للغاية، وتزداد الأمور تعقيدًا عندما يكون ذلك في ظل وجود جنسيات متعددة. تدير الجيوش هذه التعقيدات باستخدام عدة نماذج، إلا أنه لكل نموذج تفضيلاته. إن المفاضلة الأكثر ملاءمة هي مقارنة تكاليف التنسيق والتكاليف السياسية من ناحية والفوائد الاقتصادية والعسكرية من ناحية أخرى.

د. بنس نيميث (Dr. Bence Nemeth)- أستاذ مساعد - قسم دراسات الدفاع - كلية كينجز كوليدج لندن - المملكة المتحدة

إن النمو المتسارع للفضاء التجاري يضعه في طليعة الابتكار والأنشطة المتعلقة بالتوسع في استخدام الفضاء. يُوجد الكثير من المكاسب التي تستطيع الجيوش الحصول عليها من الفضاء التجاري، وذلك لأن الجيوش تحاول استخراج كامل الإمكانات الكامنة الممكنة التي قد يوفرها الفضاء للنشاط العسكري، ولكن ذلك سيجلب أيضًا ديناميكيات جديدة في المنافسة على الهيمنة.

د. مالكولم ديفيس (Dr. Malcolm Davis)- كبير محللي - معهد السياسة الإستراتيجية الاسترالي - استراليا

إن مجال الفضاء هو الذي يمكنه فقط نقل المعلومات بالسرعة والحجم والمدى المطلوب للبنية الفعالة للقيادة والسيطرة المشتركة في جميع المجالات (JADC2). إن الإمكانات الفضائية الأساسية ستكون مطلبًا ضروريًا إذا كانت الولايات المتحدة تأمل في تحقيق النصر في صراع الأقران. إن وزارة الدفاع وقوات الفضاء يجب عليهما إعطاء الأولوية لطبقة نقل فضائية قوية وأجهزة استشعار وتفوق فضائي لحماية هذه الإمكانات.

تيم رايان (Tim Ryan)- زميل مقيم أول في مجال دراسات القوة الفضائية - معهد ميتشل - الولايات المتحدة

Join our Mailing list!

Get all latest news and updates directly into your inbox.