Search
Close this search box.

العمل الجماعي بين العنصر البشري والآلات المدعومة بالذكاء الاصطناعي (AI): تبني نهج تكامل الأنظمة البشرية

البروفيسور جاي أندريه بوي (Guy Andre Boy) - عضو FlexTech - CentraleSupélec - جامعة باريس ساكلي - فرنسا

Abstract

إن تكامل الأنظمة البشرية (HSI) يقع في المنطقة المشتركة بين العوامل البشرية وبيئة العمل والتفاعل بين الإنسان والحاسوب، وهو مجال ناشئ في مجال هندسة النظم، حيث يُبشر بحل التحدي المتمثل في تشكيل عمل جماعي سلس بين العنصر البشري والآلات المدعومة بالذكاء الاصطناعي (AI). ونظرًا للدور المتزايد للأتمتة والأنظمة المستقلة، فإن التمييز بين كلا المفهومين يُعد أمرًا ضروريًا لفهم التحديات والفرص المختلفة التي يفرضها دمج الذكاء الاصطناعي(AI) في المهام العسكرية وصنع القرار. إن الثقة والتعاون والألفة عوامل حاسمة لتحقيق نتائج مُثلى للعمل الجماعي، خاصة في البيئات الديناميكية عالية المخاطر حيث التركيز على ضرورة الحفاظ على استقلالية العنصر البشري للعمل بحرية في المواقف غير المتوقعة. وفي هذا الصدد، فإن «التوائم الرقمية » الناشئة وعمليات المحاكاة المتقدمة لتواجد العنصر البشري ضمن المنظومة تقدم أدوات قوية يمكن الاستفادة منها في سياق تكامل الأنظمة البشرية (HSI). إن استخدام نهج تكامل الأنظمة البشرية (HSI) القائم على النمذجة، ومعايير الاعتماد، وبناء المرونة النظامية، يتيح إمكانية إنشاء إطار عمل لتصميم أنظمة متعددة الوكلاء ذات نتائج فائقة. إن توحيد مبادئ التكامل، وضمان قابلية التشغيل البيني، وتحسين سياسات المشاركة المستمرة في تطوير الأنظمة المدعومة بالذكاء الاصطناعي (AI)، وضمان استطلاع رأي المستخدم لإنشاء واجهات أكثر قدرة، سيكون أمرًا حاسمًا للتغلب على التحديات الرئيسية.

The Author

البروفيسور جاي أندريه بوي (Guy Andre Boy) عضو في FlexTech وأستاذ جامعي في CentraleSupélec (جامعة باريس ساكلاي). بالإضافة إلى ذلك فإن الأستاذ بوي يعمل حاليًا رئيس مجلس علوم ESTIA وباحث مضيف في المعهد الفرنسي لتكنولوجيا الفضاء الجوي (ISAE-SUPAERO). وهو زميل أكاديمية الجو والفضاء، وزميل الأكاديمية الدولية للملاحة الفضائية، ورئيس مجموعة عمل تكامل الأنظمة البشرية (HSI) التابعة للمجلس الدولي لهندسة النظم (INCOSE)، وزمالة INCOSE. شغل سابقًا منصب كبير علماء التصميم المتمركز حول البشر في مركز ناسا كنيدي لعلوم الفضاء وعميد كلية التصميم والابتكار والفنون المتمركزة حول البشر في معهد فلوريدا للتكنولوجيا. وقد كتب أكثر من 200 مقال، وأحدث كتبه هي “تكامل الأنظمة البشرية” (CRC, USA, 2020) و “الأنظمة التفاعلية الملموسة” (Springer, UK, 2016)، و”تناغم التصاميم المتمركزة حول البشر” (Springer, UK, 2013).

مقدمة

يشير الذكاء الاصطناعي (AI) إلى الأنظمة التي تُظهر سلوكًا ذكيًا نتيجة تحليل البيئة الموجودة فيها وتفاعلها نحو تحقيق أهداف محددة بدرجة معينة من الاستقلالية. يدعم الذكاء الاصطناعي (AI) المستخدمين من خلال أداء المهام التي تتطلب عادةً ذكاءً بشريًا، مثل الإدراك والمحادثة واتخاذ القرار (Kanaan, 2020).  تمتد التطبيقات الحالية والمستقبلية للذكاء الاصطناعي (AI) إلى مجموعة متزايدة من الاستخدامات المحتملة بداية من الأنظمة القائمة على المعرفة، وبناء التصورات، والتحدث ومعالجة اللغة الطبيعية وصولًا إلى الروبوتات، والتعلم الآلي، والتخطيط. في ظل تزايد اكتساب الذكاء الاصطناعي (AI) دورًا واسع الانتشار في تصميم وإيصال القوة الجوية والفضائية، فإن ذلك يستدعي تبني أساليب بقيادة متكاملة للأنظمة البشرية للعمل الجماعي مع الآلات المدعومة بالذكاء الاصطناعي (AI) (Boy, 2020, 2023b). إن تكامل الأنظمة البشرية (HSI) هو أحد التخصصات الناشئة في مجال هندسة النظم، حيث يُوجد في منطقة الالتقاء بين العوامل البشرية وبيئة العمل (HFE) والتفاعل بين العنصر البشري والحاسوب (HCI).

إن تكامل الأنظمة البشرية (HSI) يُطبق المعرفة بالإمكانات البشرية والقيود المرتبطة بها، وذلك في جميع مراحل تصميم وتنفيذ وتشغيل الأجهزة والبرامج، بهدف استخدام العنصر البشري – أي استخدام جميع الأشخاص المعنيين مثل المستخدمين والمشغلين ومسؤولي الصيانة – كنظام مكافئ للأجهزة وبرامج الأنظمة. تستكشف هذه الورقة قضايا الاستقلالية والثقة والألفة والتحكم والمسؤولية للأنظمة المدعومة بالذكاء الاصطناعي (AI) والتي تُدمج تدريجياً في المهام التي ينفذها المشغلون البشريون والآلات التي يستخدمونها. تناقش هذه الورقة الحاجة إلى تطوير تكامل الأنظمة البشرية (HSI) المبنية على النمذجة ومعايير اعتماد قوية مع الاستفادة من “التوائم الرقمية” في نفس الوقت، والتي قد تعزز فهم العوامل البشرية عالية التأثير في التفاعل بين العنصر البشري والآلة مما يؤدي إلى واجهات أكثر فائدة ونفعًا. على مدار هذه الرحلة، فإن تحقيق المرونة بشكل منهجي عن طريق معالجة فجوات التصميم تُعد أمرًا ضروريًا للأنظمة متعددة الوكلاء وذلك لإيصال متطلبات المستخدمين والمحاربين بطريقة ديناميكية في الحالات غير المتوقعة.

مبادئ ومفاهيم التلقيح المتبادل

لقد صُممت الأتمتة الآلية بشكل عام لإنجاز مجموعة محددة من الخطوات لتحقيق مجموعة محدودة من النتائج المُحددة مسبقًا (Hancock, 2017). أتمتة الأشخاص والآلات أمرًا ممكنًا: يمكن أتمتة الوظائف الإدراكية البشرية من خلال التدريب المكثف وإجراءات التشغيل القياسية (SOPs) والتكتيكات والتقنيات والإجراءات (TTPs) – على سبيل المثال – ذلك بالإضافة إلى الخبرة البشرية المكتسبة بمرور الوقت. من ناحية أخرى، فإن أتمتة الآلة تتحقق من خلال تطوير البرامج والخوارزميات التي تحل محل الوظائف الإدراكية البشرية بوظائف إدراكية للآلة، كما هو تزايد الحال مع الذكاء الاصطناعي (AI). من ناحية أخرى، فإن ذاتية الآلة تُعد أمرًا ضروريًا عندما يتعين على النظام اتخاذ قرار حاسم في الوقت المناسب بما لا يدع مجالًا لانتظار الدعم الخارجي، كما هو الحال عندما تحتاج الأنظمة للعمل عن بُعد. إن الأنظمة المستقلة الذاتية – غالبًا المجهزة لاستخدام البيانات المدمجة أو تلقيها من مصادر خارجية لاتخاذ القرارات وفقًا لذلك – يمكنها أن توفر وظائف للمشغلين لا يمتلكها البشر الطبعيين وتوفر قوة عمل دون الحاجة لأي تدخل أو إشراف خارجي (Fong, 2018). مثال مُعتبر في ذلك هو المركبات الجوالة التابعة لوكالة ناسا طرازي كيوريوسيتي (Curiosity) وبريسيرفانس (Perservance)، والتي يمكنها المناورة بشكل ذاتي على المريخ من نقطة إلى أخرى باستخدام الرؤية المجسمة وتخطيط المسار على السطح. يزداد التوجه نحو استقلالية الآلة في مجال الدفاع، إلا أنه لمن الضروري ملاحظة أنه بالرغم من وجود مستويات مختلفة من الاستقلالية، فإن الجيل الحالي من الآلات ليس ذاتي التوجيه (Sheridan & Verplank, 1978; Fong, 2018).
يعد هذا التباين بين الأتمتة والذاتية (الاستقلالية) أمرًا حيويًا لمواجهة تحدي المرونة في تكامل الأنظمة البشرية (HSI). تظل فكرة “الاستقلالية البشرية” مصدر قلق كبير لأنها تتطلب أن يكون لدى المشغلين القدرة على حل المشكلات في المواقف غير المتوقعة باستخدام المزيج المناسب من الفكر الإبداعي والمعرفة والمهارات والموارد التنظيمية والهيكلية والتكنولوجيا. لقدتم على مدار القرن الماضي تطوير الأنظمة بمستويات متصاعدة من الأتمتة، ولكن كثيرًا ما يكون ذلك دون مراعاة المواقف غير المتوقعة بالقدر الكافي. تُركت هذه التحديات للمستخدمين النهائيين لحلها بأفضل ما في وسعهم. إن اتباع إجراءات التشغيل القياسية (SOPs) والتكتيكات والتقنيات والإجراءات (TTPs) عادة ما ينتج عنها حلولاً يمكن الاعتماد عليها في مراقبة الأتمتة داخل بيئة العمليات العسكرية – ولكن يكون ذلك فقط في المواقف المتوقعة. أما في المواقف غير المتوقعة، فقد يترتب على ذلك نتائج عكسية بل وخطيرة. نظرًا لأن المواقف غير المتوقعة تتطلب غالبًا حلولًا مرنة تستند إلى ذاتية الإنسان ومعرفة أعمق ومهارات لحل المشكلات.
وبشكل عام فإن الأتمتة البشرية والآلية تعملان بشكل فعال فقط عند استخدامها في سياقات محددة – مثل استخدامها في المواقف المتوقعة. إلا أن استخدامها خارج هذه السياقات (مثل المواقف غير المتوقعة)، قد ينتج عن صلابتها وعدم مرونتها نتائج غير مقصودة مثل الحوادث أو الإصابات (Boy, 2013b; Endsley, 2018). يميل المشغلون البشريون كذلك إلى الشعور بالرضا عند استخدام الأتمتة، ويرجع ذلك في الأساس إلى استخدامها بشكل متكرر في السياقات المتحقق منها سلفًا وحيث تُحرز نتائج مثالية إلى حد ما. ولذلك فإنه في المواقف غير المتوقعة، يجب أن يكون لدى المتحكمين البشريين القدرة على حل المشكلات غير المتوقعة بشكل ذاتي، باستخدام أي موارد مادية ومعرفية متاحة، سواء كانت بشرية، أو آلية، أو مزيجًا بين الاثنين. في مثل هذه الحالات، يحتاج المتحكمون أو المشغلون البشريون إلى المرونة لتطبيق مزيج مناسب من المعرفة والمهارات والتنسيق الضروري لحل المشكلات. بالنظر إلى ذلك كله، فإن الأتمتة التي تضع المتحكم أو المشغل البشري “خارج الدائرة” قد تكون ضئيلة الفاعلية، ويقل عندها الوعي بالأوضاع مما يترتب عليه تدهور الأداء (Endsley, 2015b).

يميل المشغلون البشريون كذلك إلى الشعور بالرضا عند استخدام الأتمتة، ويرجع ذلك في الأساس إلى استخدامها بشكل متكرر في السياقات المتحقق منها سلفًا وحيث تُحرز نتائج مثالية إلى حد ما.

– جاي أندريه بوي

الشكل 2.1: نظام يحاكي العملاء من العنصر البشري والآلة

إن الحفاظ على استمرار العمل خلال العمليات في المواقف غير المتوقعة وغير المؤكدة والمفاجئة والعرضية يتطلب نظامًا مرنًا للغاية. لتحقيق هذه المرونة، فإنه لمن الضروري ضمان الاحتياط واللامركزية والقولبة والتوافق التشغيلي، جنبًا إلى جنب مع توفير صنع القرار الموزع والوعي المشترك بالموقف وذلك كله على مستوى تصميم هندسة الأنظمة. لكن ما المقصود بـ “النظام”؟ إنه لمن الضروري اصطلاح تعريف متسق لـ “النظام” لكي يتم اعتباره بصفة مشتركة لكل من العنصر البشري والآلات. يظن معظم الناس أن النظام هو الآلة، حيث اُقترح العديد من التعريفات في هذا السياق. النظام هو “مزيج من العناصر النظامية المتفاعلة بشكل منظم لتحقيق هدف أو أكثر من الأهداف المعلنة” (ISO/IEC 15288, 2015). وبدلًا من ذلك، فإن النظام يُعرف بأنه “شيء يعمل شيء ما (نشاط، وظيفة) ولديه بنية هيكلية – تتطور – وذلك في شيء ما (البيئة) لشيء ما (الغرض)” (Le Moigne, 1990). وكما هو موضح في الشكل 1، فإن النظام ووكلائه أو أنظمته الفرعية قد تكون عناصر بشرية أو آلات لديهم القدرة على تحديد الموقف، والقرار، والتخطيط لمسار العمل المناسب. يجسد سلاح الجو الحديث مثالًا فعلي عن أحد الأنظمة المؤلفة من وكلاء بشريين وآليين أو أنظمة فرعية، حيث يتم يتزايد تجهيزهم بالذكاء الاصطناعي (AI). إن الأنظمة المبنية على الذكاء الاصطناعي (AI) قد تكون برامج مجردة تعمل افتراضيًا (على سبيل المثال: المساعدات الصوتية، وبرامج تحليل الصور، ومحركات البحث، والمتحدثات، وأنظمة التعرف على الوجوه) أو أن تكون مدمجة في أجهزة مثل الروبوتات، والمركبات شبه الذاتية، أو غيرها من تطبيقات إنترنت الأشياء (Smuha, 2019).

تكامل الأنظمة البشرية (HSI) المبنية على النمذجة ومعايير الاعتماد

يمكن لنماذج النظام التي تعكس تجريدًا لظواهر العالم الحقيقي الواقعي أن تتيح إمكانية تقييم العديد من المعايير والنتائج لزيادة فهمنا لهذه الأنظمة وإمكاناتها. إن تأسيس نهج قائم على النمذجة بمعايير قوية يُعد أمرًا بالغ الأهمية لاعتماد النظام والتحقق منه من منظور تكامل الأنظمة البشرية (HSI) (Damacharla et al., 2018). ولكن في المقابل، فإن هنالك الكثير من التحديات الأساسية المرتبطة بتصميم وتحليل وتقييم نموذج الفريق المتمركز على تكامل الأنظمة البشرية (HSI)، والتي تتطلب حلها. إن تطوير مثل هذه النماذج يجب أن يبدأ بجهد تكاملي لخلق علم التوصيف على أساس التلاقح المتبادل لمبادئ ومفاهيم تكامل الأنظمة البشرية (HSI) والذكاء الاصطناعي (AI) للحصول على محاكاة معقدة متعددة العوامل ترتبط بالعمل الجماعي بين العنصر البشري والذكاء الاصطناعي (AI) (Boy, 2019). إن النموذج المفاهيمي القوي في هذا الصدد سيكون لديه القدرة على تطوير واعتماد دور كل وكيل أو نظام فرعي (عنصر بشري وآلة)، بالإضافة إلى كيفية تقاسم السلطة بينهما لتحقيق النتائج المثلى في صنع القرار.

 سيكون التركيز الأساسي للمعايير على تقييم عوامل الثقة والتعاون (Boy, 2023a; Boy et al., 2022). الثقة أمر بالغ الأهمية في تشكيل تكامل الأنظمة البشرية (HSI) وتعكس مفهوم متعدد الأوجه يتأثر بالكفاءة، والقدرة على التنبؤ، والشفافية وعوامل الموثوقية. غالبًا ما ترتبط الثقة بإدراك وفهم وتنبؤ الموقف لاتخاذ القرار والتصرف، كما أنها تتعلق بمعرفة من أو ما الذي يتحكم في النظام أو الموقف (Boy, 2016; Boy, 2021b). في البيئات الديناميكية عالية المخاطر، تعد الثقة عنصرًا حاسمًا في تمكين اتخاذ القرار المستقل والمترابط من خلال أنظمة متعددة الوكلاء (Schaefer et al., 2019). قام أتكينسون (Atkinson)  (2012) بتفكيك مفهوم “الثقة” إلى ثلاثة مجالات: الجدارة بالثقة وهي تتطلب امتلاك الصفات الضرورية والكافية التي يحتاجها الشخص لكي يثق بشيء ما (على سبيل المثال: الكفاءة)؛ قابلية الاستخدام وهي تتطلب إظهار صفات الموثوقية بحيث يمكن ملاحظتها أو استنتاجها إما بشكل مباشر أو غير مباشر (على سبيل المثال: السلوكيات، الإشارات، الاتصالات، المرجع، السمعة، إلخ)؛ والثقة، وهي عملية الاعتماد (أي الاعتماد على وكيل آخر لشيء ذو قيمة).

 عندما تكون هناك صراعات قليلة بين الوكلاء، فإن التفاعلات المستقرة والمتسقة بين الوكلاء – أي العنصر البشري والآلة على حد سواء – تعزز من بناء الثقة. إن السمعة السليمة ذات الإشارات والسلوكيات المتسقة تزيد الثقة، حيث تتعزز الثقة عندما تصبح التفاعلات والنتائج يمكن التنبؤ بها بدرجة عالية ومفهومة. بهذه الطريقة، فإن الثقة ترتبط بقوة بمستوى نضج النظام في تقديم نتائج مرضية باستمرار بأقل قدر من الإزعاج مع وجود الشفافية، وهو ما يجعل عملية صنع القرار أكثر قابلية للفهم سواء للمتحكمين والمشغلين من البشر (Boy, 2021b). نظرًا لأن الثقة في الأنظمة المعقدة تستند عمومًا إلى الألفة، فعند تبني أنظمة الذكاء الاصطناعي (AI) البشرية الجديدة، فإنه لابد من تحديد المدة الزمنية اللازمة للمستخدمين للتعرف على النظام ووظائفه وقيوده وما إلى ذلك. فكلما ازدادت ألفة المستخدمين بهذا النظام المعقد، كلما ازداد فهم كيفية العمل معه كشريك، وبالتالي الثقة أو عدم الثقة في سلوكه وخصائصه (Salas et al., 2008).

 قد تكون المحاكاة لتواجد العنصر البشري ضمن المنظومة أمرًا فعالًا للغاية وذلك لتوحيد وتسريع عملية الألفة لمستخدمي الأنظمة المستقلة. لقد أدت النمذجة والمحاكاة لتواجد العنصر البشري ضمن المنظومة إلى تطوير “التوائم الرقمية” واستخدامها بشكل متزايد، مما يسمح بالتمثيل الافتراضي لنظام على مدار عمره من البداية إلى الزوال. يتم تطوير التوائم الرقمية عبر المجالات المتعددة، لتتحول من مجرد تطبيقات للصيانة التشغيلية لمحركات طائرات الهليكوبتر إلى العمليات عن بُعد باستخدام الروبوتات (Lorente et al., 2021; Camara Dit Pinto et al., 2021). في ظل مراعاة المزايا المحتملة للتوائم الرقمية ومحاكاة التدريب، فإن تحقيق الألفة المتقنة والفهم العميق للأنظمة المعقدة يمكن أن يستغرق وقتًا طويلاً للمستخدمين. على الرغم من العقود المنصرمة في البحث حول الثقة الشخصية لتحديد الفارق بين فرق العمل من العنصر البشري وفرق العمل من العنصر البشري والحيوانات والتفاعلات بين العنصر البشري والآلة، فإنه لا تزال هناك فجوات حرجة في فهمنا للثقة والإدراك والتلاعب في العديد من المجالات وثيقة الصلة بالتفاعل بين العنصر البشري والآلة. يتفاقم هذا التحدي في ضوء وجود الذكاء الاصطناعي (AI)، مما يؤدي إلى ظهور المزيد من الآلات المستقلة التي لم تصل إلى مرحلة النضج من ثلاث وجهات نظر نقدية كالتالي: مستوى جاهزية التكنولوجيا (TRL)؛ مستوى جاهزية العنصر البشري (HRL)؛ ومستوى جاهزية المنظمة (ORL)، حيث يمكن مد الأخير ليشمل مستويات الجاهزية المجتمعية (SRL) (NASA, 2022; Endsley, 2015; Boy, 2021b).

لقد أدت النمذجة والمحاكاة لتواجد العنصر البشري ضمن المنظومة إلى تطوير «التوائم الرقمية » واستخدامها بشكل متزايد، مما يسمح بالتمثيل الافترا ضي لنظام على مدار عمره من البداية إلى الزوال.

– جاي أندريه بوي

 إلى جانب الثقة، فإن التعاون والتشارك يمثلان مفهومين مرتبطين ارتباطًا وثيقًا بالعمل الجماعي بين العنصر البشري والآلة في الأنظمة الناشئة متعددة الوكلاء في القوة الجوية مثل نظام القتال الجوي المستقبلي في أوروبا (FCAS)، والذي يضع تصور للأفتار الرقمية والأجنحة الموالية للعمل بشكل تعاوني جنبًا إلى جنب مع الطائرات المقاتلة المأهولة. أثناء التعاون، قد يكون لكل وكيل مصالح فردية ولكنهم يعملون نحو تحقيق هدف مشترك وذلك بمواءمة الإجراءات والجهود لتحقيق هدف واحد، وذلك بالرغم من احتمالية اختلاف الاهتمامات. غالبًا ما يظهر هذا المبدأ عند الحاجة للعمل في كيانات متعددة، مثل فكرة الألعاب القائمة على الفرق أو الأنظمة متعددة الوكلاء في البيئة العسكرية. بينما المبدأ المقابل يشمل التعاون المشترك بين وكلاء لديهم مصلحة ومشتركة وهدف مشترك كذلك. ويكون ذلك من خلال تكريس مواردهم، ومعرفتهم، ومهاراتهم لتحقيق هذا الهدف المشترك، حيث يتميز التعاون على الأغلب بالتواصل القوي والتفاهم المتبادل واتخاذ القرارات المشتركة. فعلى سبيل المثال في الأوركسترا يتعاون الموسيقيون لأداء السيمفونية، حيث ينسق قائد الأوركسترا والنوتة الموسيقية العزف بدقة (Boy, 2013a).

 إن التدريب بهدف التعاون يُعد أمرًا ضروريًا نظرًا لأهمية العمل الجماعي الفعال لنماذج فرق العمل الناجحة. وعلى الرغم من ذلك، فيجب التركيز fبالأخص على تنمية السلوك التكيفي والمرن للوكلاء من خلال التدريب القائم على تكامل الأنظمة البشرية (HSI) والمحاكاة واختبار المرونة. تستدعي الحاجة مزيد من الفهم عن الذكاء الاصطناعي (AI) والاستقلالية التي سيكون مفتاحها الذكاء الاصطناعي (AI)، مثل قدرته على اتخاذ الخيارات عند حدوث مواقف غير متوقعة. إن تعليم الوكلاء كيفية التواصل بكفاءة، وفهم الأدوار كل فيما يخصه، وتنسيق أعمالهم لتحقيق النتائج المرجوة يُعد أمرًا بالغ الأهمية ويمكن أن يساعد في بناء فهم أفضل للاستقلالية التي يمكن للذكاء الاصطناعي (AI) أن يعطيها إمكانية السماحية لأخطاء العنصر البشري والآلة لتمكين الوكلاء من الاختيار عند حدوث مواقف غير متوقعة. إن المضي قُدمًا في ذلك سيتطلب بالضرورة حلولًا للنماذج الذهنية أو الإدراكية المشتركة بين الوكلاء، وتخصيص السلطة المستندة إلى العلم، والتعليم الأخلاقي والتدريب، والتصميم والإدارة بغرض الاستدامة للتأكيد على الاستقرار والتنفيذ والحوكمة، وإمكانية شرح سلوك الوكيل، ومعايرة الثقة بشكل تدريجي، وإمكانية تحييد العنصر البشري، وبروتوكولات الاتصال والتقييمات الدورية لدعم التحسين المستمر.

الخاتمة الاتجاه المستقبلي

 تعتمد الأهمية المتزايدة للترابط في الهياكل التشغيلية الحالية والناشئة للقوة الجوية والفضائية على نهج نظام الأنظمة. فعلى سبيل المثال، فإن اللامركزية في القيادة والتحكم (C2) يتزايد تطبيقها من خلال أجهزة الكمبيوتر: توفر قمرات القيادة الرقمية للطيارين في الطائرات المقاتلة الحديثة تكاملاً محوره الإنسان لأنظمة القيادة والتحكم (C2) لدعم العمليات الموزعة عالية السرعة (Boy, 2023b). ومع ذلك، فلا تزال هناك تحديات أساسية في العمل الجماعي بين العنصر البشري والذكاء الاصطناعي (AI). إن تكامل الأنظمة البشرية (HSI) القائم على النمذجة يوفر إمكانات هائلة. إن قياس أداء العمل الجماعي بين العنصر البشر والذكاء الاصطناعي (AI) والاستفادة منه هو أمرًا ضروريًا لتسهيل التحسين المستمر والتأكد من أن نظام الأنظمة – الذي يتألف من العناصر البشرية والآلات – والذي يتزايد اعتماده على الذكاء الاصطناعي (AI) من الممكن أن يعمل على المستويات المثلى. لمعالجة فجوات التصميم، فسيكون من الضروري التطور من الأتمتة الصلبة إلى الاستقلالية المرنة، بحيث تكون الاستقلالية مفهومًا بين العنصر البشري والآلة (كما هو موضح في الشكل 2). إن المرونة المنهجية المتضمنة – مثل المستوى التكنولوجي أو البشري أو التنظيمي – ستتيح للمشغلين الحفاظ بسهولة على استمرارية الأعمال أثناء العمليات في المواقف غير المتوقعة عن طريق العثور على الدعم من واحد أو أكثر من الشركاء (Boy, 2021a).

الشكل 2.2: ربط الأتمتة الصلبة مع الاستقلالية المرنة

ولكي يصبح ذلك ممكنًا، فإن بناء فهم مشترك لتكامل الأنظمة البشرية (HSI) بين الأطراف المعنية يُعد أمرًا ضروريًا لتوحيد مبادئ التكامل، مما سيترتب عليه مواصفات للنظام تثبت القابلية للتشغيل البيني. لطالما كانت إمكانية التشغيل البيني صعبة التحقيق بسبب الأنظمة التي تطورها شركات مختلفة باستخدام منهجياتها ومعاييرها وملكيتها الفكرية. علاوة على ذلك، فإن اعتماد تصميم النماذج والأنظمة للشراكة بين العنصر البشري والذكاء الاصطناعي (AI) سيتوقف على القدرة على تقييم سلامتها وموثوقيتها وفعاليتها. يمكن تحقيق ذلك بإنشاء معايير قوية لجمع وتحليل البيانات الهادفة المرتبطة بالأداء. إن تطوير السيناريوهات وعمليات المحاكاة الديناميكية القائمة على تواجد العنصر البشري ضمن المنظومة سيؤدي إلى الاكتشاف التدريجي للوظائف الناشئة وهياكل الأنظمة من خلال تحليلات النشاط التي تُنذر بالمحاولات المتكررة والتطورات المستقبلية (Boy et al., 2022). كما سيساعدون كذلك في تحديد العوامل البشرية الحاسمة وتحليل تأثيرها. من ناحية أخرى، فإن تحسين السياسات من أجل المشاركة المستمرة أمرًا ضروريًا لتقديم اقتصاد دائري يؤدي إلى واجهات أكثر فائدة وقابلة للاستخدام بين العنصر البشري والآلة. تعتبر الشهادات الفنية والتحقق من صحة الأنظمة والامتثال التنظيمي وإدارة المدخلات والتغذية العكسية المبنية على تجربة المستخدم أمرًا بالغ الأهمية، حيث ستقدم اتجاهًا مستقبليًا للبحث والتطوير.

المراجع:

Atkinson, D. (2012) Human-Machine Trust. Invited speech at IHMC (Florida Institute for Human and Machine Cognition), 4 November.

Boy, G.A. (2013) Orchestrating Human-Cantered Design. Springer, U.K.

Boy, G.A. (2013) ‘Dealing with the Unexpected in our Complex Socio-technical World,’ Proceedings of the 12th IFAC/IFIP/IFORS/IEA Symposium on Analysis, Design, and Evaluation of Human-Machine Systems. Las Vegas, Nevada, USA. Also, Chapter in Risk Management in Life-Critical Systems, Millot P., and Boy, G.A., Wiley.

Boy, G.A. (2016) Tangible Interactive Systems. Springer, U.K.

Boy, G.A. (2019) ‘Cross-Fertilization of Human-Systems Integration and Artificial Intelligence: Looking for Systemic Flexibility,’ Proceedings of AI4SE, First Workshop on the Application of Artificial Intelligence for Systems Engineering. Madrid, Spain.

Boy, G.A. (2020) Human Systems Integration: From Virtual to Tangible. CRC Taylor & Francis Press, Miami, FL, USA.

Boy, G.A. (2021) Design for Flexibility – A Human Systems Integration Approach. Springer Nature, Switzerland. ISBN: 978-3-030-76391-6.

Boy, G.A. (2021) ’Socioergonomics: A few clarifications on the Technology-Organizations-People Tryptic,’ Proceedings of INCOSE HSI2021 International Conference, INCOSE, San Diego, CA, USA.

Boy, G.A. (2023), ‘Model-Based Human Systems Integration.’ In the Handbook of Model-Based Systems Engineering, A.M. Madni & N. Augustine (Eds.). Springer Nature, Switzerland.

Boy, G.A. (2023), ‘An epistemological approach to human systems integration,’ Technology in Society, 102298. Available at: https://doi.org/10.1016/j.techsoc.2023.102298.

Boy, G.A. Masson, D, Durnerin, E. and Morel, C. (2022) ‘Human Systems Integration of Increasingly Autonomous Systems using PRODEC Methodology,’ FlexTech work-in-progress Technical Report.

Available upon request, guy-andre.boy@centralesupelec.fr.

Pinto, C. D. Masson, D, Villeneuve, E. Boy, G.A. and Urfels, L. (2021) ’From requirements to prototyping: Application of human systems integration methodology to digital twin,’ In the Proceedings of the International Conference on Engineering Design, ICED 2021, 16-20 August, Gothenburg.

Damacharla, P. Javaid, A.Y. Gallimore, J.J. and Devabhaktuni, V.K. (2018) ’Common Metrics to Benchmark Human-Machine Teams (HMT): A Review.’ IEEE Access 6, 38637-38655. DOI: 10.1109/ACCESS.2018.2853560.

Endsley, M.R. (2015) ‘Human Readiness Levels: Linking S&T to Acquisition [Plenary Address], National Defense Industrial Association Human Systems Conference, Alexandria, VA, USA.

Endsley, M.R. (2015), Autonomous Horizon: System Autonomy in the Air Force – A Path to the Future,’ Volume 1: Human-Autonomy Teaming. Technical Report AF/ST TR 15-01, June 2015. DOI 10.13140/RG.2.1.1164.2003.

Endsley, M.R. (2018) ’Situation awareness in future autonomous vehicles: Beware the unexpected,’ Proceedings of the 20th Congress of the International Ergonomics Association. Florence, Italy. Springer Nature, Switzerland.

Fong, T. (2018) Autonomous Systems – NASA Capability Overview, 24 August 24. Availale at: https://www.nasa.gov/sites/default/files/atoms/files/nac_tie_aug2018_tfong_tagged.pdf

Hancock, P.A. (2017) ’Imposing limits on autonomous systems.’ Ergonomics, 60/2, 284-291.

Holbrook, J.B. Prinzel, L.J., Chancey, E.T., Shively, R.J., Feary, M.S., Dao, Q.V., Ballin, M.G. and Teubert, C. (2020) ‘Enabling Urban Air Mobility: Human-Autonomy Teaming Research Challenges and Recommendations,’ AIAA, Aviation Forum (virtual event), 15-19 June.

INCOSE (2022) ‘Systems engineering definition.’

Available at:  https://www.incose.org/about-systems-engineering/system-and-se-definition/systems-engineering-definition

INCOSE (2022) ‘Systems Engineering Vision 2035.’

Available at: https://www.incose.org/docs/default-source/se-vision/incose-se-vision-2035.pdf?sfvrsn=e32063c7_2

ISO/IEC 15288 (2015) ‘Systems Engineering – system life cycle processes,’ IEEE Standard, International Organization for Standardization, JTC1/SC7.

Kanaan, M. (2020), T-Minus AI – Humanity’s Countdown to Artificial Intelligence and the New Pursuit of Global Power. BenBella Books, Inc., Dallas, Texas, USA. ISBN 978-1-948836-94-4.

Le Moigne, J.L. (1990) La modélisation des systèmes complexes. Dunod, Paris.

Lorente, Q., Villeneuve, E., Merlo, C., Boy, G.A. and Thermy, F. (2021) ‘Development of a digital twin for collaborative decision-making, based on a multi-agent system: application to prescriptive maintenance.’ Proceedings of INCOSE HSI2021 International Conference.

Lyons, J.B., Sycara, K., Lewis, M. and Capiola, A. (2021) ‘Human–Autonomy Teaming: Definitions, Debates, and Directions.’ Frontiers in Psychology – Organizational Psychology. https://doi.org/10.3389/fpsyg.2021.589585

NASA Technology Readiness Levels (TRL) (2022)

Available at: https://www.nasa.gov/directorates/heo/scan/engineering/technology/technology_readiness_level

NASEM (2021) Human-AI Teaming: State of the Art and Research Needs. National Academy of Sciences, Engineering, and Medicine, Washington D.C. The National Academy Press.

Available at: https://doi.org/10.17226/26355

de Rosnay, J 1977, Le Macroscope, Vers une vision globale. Seuil – Points Essais, Paris.

Salas, E., Cooke, N.J. and Rosen, M.A. (2008) ‘On Teams, Teamwork, and Team Performance: Discoveries and Developments.’ Human Factors, Vol. 50, No. 3, June, 540–547. DOI 10.1518/001872008X288457.

Schaefer, K.E., Hill, S.G. and Jentsch, F.G. (2019) Trust in Human-Autonomy Teaming: A Review of Trust Research from the US Army Research Laboratory Robotics Collaborative Technology Alliance.  Springer International Publishing AG, part of Springer Nature (outside the USA), J. Chen (Ed.): AHFE 2018, AISC 784, 102–114. Available at: https://doi.org/10.1007/978-3-319-94346-6_10

Sheridan, T.B. and Verplank, W.L. (1978) ‘Human and computer control of undersea teleoperators. Technical Report,’ Man-Machine Systems Laboratory, Department of Mechanical Engineering, Massachusetts Institute of Technology, Cambridge. MA, USA.

Smuha, N. (2019) ‘A definition of AI: Main capabilities and disciplines. High-Level Expert Group on Artificial Intelligence. European Commission, Brussels, Belgium,

Available at: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

Woods, D.D. and Alderson, D.L. (2021) ‘Progress toward Resilient Infrastructures: Are we falling behind the pace of events and changing threats?’ Journal of Critical Infrastructure Policy, Volume 2, Number 2, Fall / Winter. Strategic Perspectives.

Table of Contents

Read More

تمثل نماذج الابتكار المفتوح (OI) إستراتيجية جديدة تحث على تحول هائل في منظمات الدفاع مثل تحول القوات الجوية وشركائها في الصناعة، وخصوصًا الشركات الرائدة في تكامل ودمج الأنظمة. أصبح التحول من نماذج الابتكار المنغلق إلى نماذج الابتكار المفتوح (OI) أمرًا ضروريًا، ولكن ذلك يعني تغييرات نموذجية يجب إدارتها على مستوى تصميم وتقييم البرامج العسكرية المعقدة.

د. فاليري ميريندول (Dr. Valérie Merindol)- مديرة مساعدة لرئيس newPIC - كلية باريس للأعمال، فرنسا

إن تطوير الإمكانات العسكرية عملية معقدة للغاية، وتزداد الأمور تعقيدًا عندما يكون ذلك في ظل وجود جنسيات متعددة. تدير الجيوش هذه التعقيدات باستخدام عدة نماذج، إلا أنه لكل نموذج تفضيلاته. إن المفاضلة الأكثر ملاءمة هي مقارنة تكاليف التنسيق والتكاليف السياسية من ناحية والفوائد الاقتصادية والعسكرية من ناحية أخرى.

د. بنس نيميث (Dr. Bence Nemeth)- أستاذ مساعد - قسم دراسات الدفاع - كلية كينجز كوليدج لندن - المملكة المتحدة

إن النمو المتسارع للفضاء التجاري يضعه في طليعة الابتكار والأنشطة المتعلقة بالتوسع في استخدام الفضاء. يُوجد الكثير من المكاسب التي تستطيع الجيوش الحصول عليها من الفضاء التجاري، وذلك لأن الجيوش تحاول استخراج كامل الإمكانات الكامنة الممكنة التي قد يوفرها الفضاء للنشاط العسكري، ولكن ذلك سيجلب أيضًا ديناميكيات جديدة في المنافسة على الهيمنة.

د. مالكولم ديفيس (Dr. Malcolm Davis)- كبير محللي - معهد السياسة الإستراتيجية الاسترالي - استراليا

إن مجال الفضاء هو الذي يمكنه فقط نقل المعلومات بالسرعة والحجم والمدى المطلوب للبنية الفعالة للقيادة والسيطرة المشتركة في جميع المجالات (JADC2). إن الإمكانات الفضائية الأساسية ستكون مطلبًا ضروريًا إذا كانت الولايات المتحدة تأمل في تحقيق النصر في صراع الأقران. إن وزارة الدفاع وقوات الفضاء يجب عليهما إعطاء الأولوية لطبقة نقل فضائية قوية وأجهزة استشعار وتفوق فضائي لحماية هذه الإمكانات.

تيم رايان (Tim Ryan)- زميل مقيم أول في مجال دراسات القوة الفضائية - معهد ميتشل - الولايات المتحدة

Join our Mailing list!

Get all latest news and updates directly into your inbox.