مقدمة
يشير الذكاء الاصطناعي (AI) إلى الأنظمة التي تُظهر سلوكًا ذكيًا نتيجة تحليل البيئة الموجودة فيها وتفاعلها نحو تحقيق أهداف محددة بدرجة معينة من الاستقلالية. يدعم الذكاء الاصطناعي (AI) المستخدمين من خلال أداء المهام التي تتطلب عادةً ذكاءً بشريًا، مثل الإدراك والمحادثة واتخاذ القرار (Kanaan, 2020). تمتد التطبيقات الحالية والمستقبلية للذكاء الاصطناعي (AI) إلى مجموعة متزايدة من الاستخدامات المحتملة بداية من الأنظمة القائمة على المعرفة، وبناء التصورات، والتحدث ومعالجة اللغة الطبيعية وصولًا إلى الروبوتات، والتعلم الآلي، والتخطيط. في ظل تزايد اكتساب الذكاء الاصطناعي (AI) دورًا واسع الانتشار في تصميم وإيصال القوة الجوية والفضائية، فإن ذلك يستدعي تبني أساليب بقيادة متكاملة للأنظمة البشرية للعمل الجماعي مع الآلات المدعومة بالذكاء الاصطناعي (AI) (Boy, 2020, 2023b). إن تكامل الأنظمة البشرية (HSI) هو أحد التخصصات الناشئة في مجال هندسة النظم، حيث يُوجد في منطقة الالتقاء بين العوامل البشرية وبيئة العمل (HFE) والتفاعل بين العنصر البشري والحاسوب (HCI).
إن تكامل الأنظمة البشرية (HSI) يُطبق المعرفة بالإمكانات البشرية والقيود المرتبطة بها، وذلك في جميع مراحل تصميم وتنفيذ وتشغيل الأجهزة والبرامج، بهدف استخدام العنصر البشري – أي استخدام جميع الأشخاص المعنيين مثل المستخدمين والمشغلين ومسؤولي الصيانة – كنظام مكافئ للأجهزة وبرامج الأنظمة. تستكشف هذه الورقة قضايا الاستقلالية والثقة والألفة والتحكم والمسؤولية للأنظمة المدعومة بالذكاء الاصطناعي (AI) والتي تُدمج تدريجياً في المهام التي ينفذها المشغلون البشريون والآلات التي يستخدمونها. تناقش هذه الورقة الحاجة إلى تطوير تكامل الأنظمة البشرية (HSI) المبنية على النمذجة ومعايير اعتماد قوية مع الاستفادة من “التوائم الرقمية” في نفس الوقت، والتي قد تعزز فهم العوامل البشرية عالية التأثير في التفاعل بين العنصر البشري والآلة مما يؤدي إلى واجهات أكثر فائدة ونفعًا. على مدار هذه الرحلة، فإن تحقيق المرونة بشكل منهجي عن طريق معالجة فجوات التصميم تُعد أمرًا ضروريًا للأنظمة متعددة الوكلاء وذلك لإيصال متطلبات المستخدمين والمحاربين بطريقة ديناميكية في الحالات غير المتوقعة.
مبادئ ومفاهيم التلقيح المتبادل
لقد صُممت الأتمتة الآلية بشكل عام لإنجاز مجموعة محددة من الخطوات لتحقيق مجموعة محدودة من النتائج المُحددة مسبقًا (Hancock, 2017). أتمتة الأشخاص والآلات أمرًا ممكنًا: يمكن أتمتة الوظائف الإدراكية البشرية من خلال التدريب المكثف وإجراءات التشغيل القياسية (SOPs) والتكتيكات والتقنيات والإجراءات (TTPs) – على سبيل المثال – ذلك بالإضافة إلى الخبرة البشرية المكتسبة بمرور الوقت. من ناحية أخرى، فإن أتمتة الآلة تتحقق من خلال تطوير البرامج والخوارزميات التي تحل محل الوظائف الإدراكية البشرية بوظائف إدراكية للآلة، كما هو تزايد الحال مع الذكاء الاصطناعي (AI). من ناحية أخرى، فإن ذاتية الآلة تُعد أمرًا ضروريًا عندما يتعين على النظام اتخاذ قرار حاسم في الوقت المناسب بما لا يدع مجالًا لانتظار الدعم الخارجي، كما هو الحال عندما تحتاج الأنظمة للعمل عن بُعد. إن الأنظمة المستقلة الذاتية – غالبًا المجهزة لاستخدام البيانات المدمجة أو تلقيها من مصادر خارجية لاتخاذ القرارات وفقًا لذلك – يمكنها أن توفر وظائف للمشغلين لا يمتلكها البشر الطبعيين وتوفر قوة عمل دون الحاجة لأي تدخل أو إشراف خارجي (Fong, 2018). مثال مُعتبر في ذلك هو المركبات الجوالة التابعة لوكالة ناسا طرازي كيوريوسيتي (Curiosity) وبريسيرفانس (Perservance)، والتي يمكنها المناورة بشكل ذاتي على المريخ من نقطة إلى أخرى باستخدام الرؤية المجسمة وتخطيط المسار على السطح. يزداد التوجه نحو استقلالية الآلة في مجال الدفاع، إلا أنه لمن الضروري ملاحظة أنه بالرغم من وجود مستويات مختلفة من الاستقلالية، فإن الجيل الحالي من الآلات ليس ذاتي التوجيه (Sheridan & Verplank, 1978; Fong, 2018).
يعد هذا التباين بين الأتمتة والذاتية (الاستقلالية) أمرًا حيويًا لمواجهة تحدي المرونة في تكامل الأنظمة البشرية (HSI). تظل فكرة “الاستقلالية البشرية” مصدر قلق كبير لأنها تتطلب أن يكون لدى المشغلين القدرة على حل المشكلات في المواقف غير المتوقعة باستخدام المزيج المناسب من الفكر الإبداعي والمعرفة والمهارات والموارد التنظيمية والهيكلية والتكنولوجيا. لقدتم على مدار القرن الماضي تطوير الأنظمة بمستويات متصاعدة من الأتمتة، ولكن كثيرًا ما يكون ذلك دون مراعاة المواقف غير المتوقعة بالقدر الكافي. تُركت هذه التحديات للمستخدمين النهائيين لحلها بأفضل ما في وسعهم. إن اتباع إجراءات التشغيل القياسية (SOPs) والتكتيكات والتقنيات والإجراءات (TTPs) عادة ما ينتج عنها حلولاً يمكن الاعتماد عليها في مراقبة الأتمتة داخل بيئة العمليات العسكرية – ولكن يكون ذلك فقط في المواقف المتوقعة. أما في المواقف غير المتوقعة، فقد يترتب على ذلك نتائج عكسية بل وخطيرة. نظرًا لأن المواقف غير المتوقعة تتطلب غالبًا حلولًا مرنة تستند إلى ذاتية الإنسان ومعرفة أعمق ومهارات لحل المشكلات.
وبشكل عام فإن الأتمتة البشرية والآلية تعملان بشكل فعال فقط عند استخدامها في سياقات محددة – مثل استخدامها في المواقف المتوقعة. إلا أن استخدامها خارج هذه السياقات (مثل المواقف غير المتوقعة)، قد ينتج عن صلابتها وعدم مرونتها نتائج غير مقصودة مثل الحوادث أو الإصابات (Boy, 2013b; Endsley, 2018). يميل المشغلون البشريون كذلك إلى الشعور بالرضا عند استخدام الأتمتة، ويرجع ذلك في الأساس إلى استخدامها بشكل متكرر في السياقات المتحقق منها سلفًا وحيث تُحرز نتائج مثالية إلى حد ما. ولذلك فإنه في المواقف غير المتوقعة، يجب أن يكون لدى المتحكمين البشريين القدرة على حل المشكلات غير المتوقعة بشكل ذاتي، باستخدام أي موارد مادية ومعرفية متاحة، سواء كانت بشرية، أو آلية، أو مزيجًا بين الاثنين. في مثل هذه الحالات، يحتاج المتحكمون أو المشغلون البشريون إلى المرونة لتطبيق مزيج مناسب من المعرفة والمهارات والتنسيق الضروري لحل المشكلات. بالنظر إلى ذلك كله، فإن الأتمتة التي تضع المتحكم أو المشغل البشري “خارج الدائرة” قد تكون ضئيلة الفاعلية، ويقل عندها الوعي بالأوضاع مما يترتب عليه تدهور الأداء (Endsley, 2015b).
يميل المشغلون البشريون كذلك إلى الشعور بالرضا عند استخدام الأتمتة، ويرجع ذلك في الأساس إلى استخدامها بشكل متكرر في السياقات المتحقق منها سلفًا وحيث تُحرز نتائج مثالية إلى حد ما.
– جاي أندريه بوي
إن الحفاظ على استمرار العمل خلال العمليات في المواقف غير المتوقعة وغير المؤكدة والمفاجئة والعرضية يتطلب نظامًا مرنًا للغاية. لتحقيق هذه المرونة، فإنه لمن الضروري ضمان الاحتياط واللامركزية والقولبة والتوافق التشغيلي، جنبًا إلى جنب مع توفير صنع القرار الموزع والوعي المشترك بالموقف وذلك كله على مستوى تصميم هندسة الأنظمة. لكن ما المقصود بـ “النظام”؟ إنه لمن الضروري اصطلاح تعريف متسق لـ “النظام” لكي يتم اعتباره بصفة مشتركة لكل من العنصر البشري والآلات. يظن معظم الناس أن النظام هو الآلة، حيث اُقترح العديد من التعريفات في هذا السياق. النظام هو “مزيج من العناصر النظامية المتفاعلة بشكل منظم لتحقيق هدف أو أكثر من الأهداف المعلنة” (ISO/IEC 15288, 2015). وبدلًا من ذلك، فإن النظام يُعرف بأنه “شيء يعمل شيء ما (نشاط، وظيفة) ولديه بنية هيكلية – تتطور – وذلك في شيء ما (البيئة) لشيء ما (الغرض)” (Le Moigne, 1990). وكما هو موضح في الشكل 1، فإن النظام ووكلائه أو أنظمته الفرعية قد تكون عناصر بشرية أو آلات لديهم القدرة على تحديد الموقف، والقرار، والتخطيط لمسار العمل المناسب. يجسد سلاح الجو الحديث مثالًا فعلي عن أحد الأنظمة المؤلفة من وكلاء بشريين وآليين أو أنظمة فرعية، حيث يتم يتزايد تجهيزهم بالذكاء الاصطناعي (AI). إن الأنظمة المبنية على الذكاء الاصطناعي (AI) قد تكون برامج مجردة تعمل افتراضيًا (على سبيل المثال: المساعدات الصوتية، وبرامج تحليل الصور، ومحركات البحث، والمتحدثات، وأنظمة التعرف على الوجوه) أو أن تكون مدمجة في أجهزة مثل الروبوتات، والمركبات شبه الذاتية، أو غيرها من تطبيقات إنترنت الأشياء (Smuha, 2019).
تكامل الأنظمة البشرية (HSI) المبنية على النمذجة ومعايير الاعتماد
يمكن لنماذج النظام التي تعكس تجريدًا لظواهر العالم الحقيقي الواقعي أن تتيح إمكانية تقييم العديد من المعايير والنتائج لزيادة فهمنا لهذه الأنظمة وإمكاناتها. إن تأسيس نهج قائم على النمذجة بمعايير قوية يُعد أمرًا بالغ الأهمية لاعتماد النظام والتحقق منه من منظور تكامل الأنظمة البشرية (HSI) (Damacharla et al., 2018). ولكن في المقابل، فإن هنالك الكثير من التحديات الأساسية المرتبطة بتصميم وتحليل وتقييم نموذج الفريق المتمركز على تكامل الأنظمة البشرية (HSI)، والتي تتطلب حلها. إن تطوير مثل هذه النماذج يجب أن يبدأ بجهد تكاملي لخلق علم التوصيف على أساس التلاقح المتبادل لمبادئ ومفاهيم تكامل الأنظمة البشرية (HSI) والذكاء الاصطناعي (AI) للحصول على محاكاة معقدة متعددة العوامل ترتبط بالعمل الجماعي بين العنصر البشري والذكاء الاصطناعي (AI) (Boy, 2019). إن النموذج المفاهيمي القوي في هذا الصدد سيكون لديه القدرة على تطوير واعتماد دور كل وكيل أو نظام فرعي (عنصر بشري وآلة)، بالإضافة إلى كيفية تقاسم السلطة بينهما لتحقيق النتائج المثلى في صنع القرار.
سيكون التركيز الأساسي للمعايير على تقييم عوامل الثقة والتعاون (Boy, 2023a; Boy et al., 2022). الثقة أمر بالغ الأهمية في تشكيل تكامل الأنظمة البشرية (HSI) وتعكس مفهوم متعدد الأوجه يتأثر بالكفاءة، والقدرة على التنبؤ، والشفافية وعوامل الموثوقية. غالبًا ما ترتبط الثقة بإدراك وفهم وتنبؤ الموقف لاتخاذ القرار والتصرف، كما أنها تتعلق بمعرفة من أو ما الذي يتحكم في النظام أو الموقف (Boy, 2016; Boy, 2021b). في البيئات الديناميكية عالية المخاطر، تعد الثقة عنصرًا حاسمًا في تمكين اتخاذ القرار المستقل والمترابط من خلال أنظمة متعددة الوكلاء (Schaefer et al., 2019). قام أتكينسون (Atkinson) (2012) بتفكيك مفهوم “الثقة” إلى ثلاثة مجالات: الجدارة بالثقة وهي تتطلب امتلاك الصفات الضرورية والكافية التي يحتاجها الشخص لكي يثق بشيء ما (على سبيل المثال: الكفاءة)؛ قابلية الاستخدام وهي تتطلب إظهار صفات الموثوقية بحيث يمكن ملاحظتها أو استنتاجها إما بشكل مباشر أو غير مباشر (على سبيل المثال: السلوكيات، الإشارات، الاتصالات، المرجع، السمعة، إلخ)؛ والثقة، وهي عملية الاعتماد (أي الاعتماد على وكيل آخر لشيء ذو قيمة).
عندما تكون هناك صراعات قليلة بين الوكلاء، فإن التفاعلات المستقرة والمتسقة بين الوكلاء – أي العنصر البشري والآلة على حد سواء – تعزز من بناء الثقة. إن السمعة السليمة ذات الإشارات والسلوكيات المتسقة تزيد الثقة، حيث تتعزز الثقة عندما تصبح التفاعلات والنتائج يمكن التنبؤ بها بدرجة عالية ومفهومة. بهذه الطريقة، فإن الثقة ترتبط بقوة بمستوى نضج النظام في تقديم نتائج مرضية باستمرار بأقل قدر من الإزعاج مع وجود الشفافية، وهو ما يجعل عملية صنع القرار أكثر قابلية للفهم سواء للمتحكمين والمشغلين من البشر (Boy, 2021b). نظرًا لأن الثقة في الأنظمة المعقدة تستند عمومًا إلى الألفة، فعند تبني أنظمة الذكاء الاصطناعي (AI) البشرية الجديدة، فإنه لابد من تحديد المدة الزمنية اللازمة للمستخدمين للتعرف على النظام ووظائفه وقيوده وما إلى ذلك. فكلما ازدادت ألفة المستخدمين بهذا النظام المعقد، كلما ازداد فهم كيفية العمل معه كشريك، وبالتالي الثقة أو عدم الثقة في سلوكه وخصائصه (Salas et al., 2008).
قد تكون المحاكاة لتواجد العنصر البشري ضمن المنظومة أمرًا فعالًا للغاية وذلك لتوحيد وتسريع عملية الألفة لمستخدمي الأنظمة المستقلة. لقد أدت النمذجة والمحاكاة لتواجد العنصر البشري ضمن المنظومة إلى تطوير “التوائم الرقمية” واستخدامها بشكل متزايد، مما يسمح بالتمثيل الافتراضي لنظام على مدار عمره من البداية إلى الزوال. يتم تطوير التوائم الرقمية عبر المجالات المتعددة، لتتحول من مجرد تطبيقات للصيانة التشغيلية لمحركات طائرات الهليكوبتر إلى العمليات عن بُعد باستخدام الروبوتات (Lorente et al., 2021; Camara Dit Pinto et al., 2021). في ظل مراعاة المزايا المحتملة للتوائم الرقمية ومحاكاة التدريب، فإن تحقيق الألفة المتقنة والفهم العميق للأنظمة المعقدة يمكن أن يستغرق وقتًا طويلاً للمستخدمين. على الرغم من العقود المنصرمة في البحث حول الثقة الشخصية لتحديد الفارق بين فرق العمل من العنصر البشري وفرق العمل من العنصر البشري والحيوانات والتفاعلات بين العنصر البشري والآلة، فإنه لا تزال هناك فجوات حرجة في فهمنا للثقة والإدراك والتلاعب في العديد من المجالات وثيقة الصلة بالتفاعل بين العنصر البشري والآلة. يتفاقم هذا التحدي في ضوء وجود الذكاء الاصطناعي (AI)، مما يؤدي إلى ظهور المزيد من الآلات المستقلة التي لم تصل إلى مرحلة النضج من ثلاث وجهات نظر نقدية كالتالي: مستوى جاهزية التكنولوجيا (TRL)؛ مستوى جاهزية العنصر البشري (HRL)؛ ومستوى جاهزية المنظمة (ORL)، حيث يمكن مد الأخير ليشمل مستويات الجاهزية المجتمعية (SRL) (NASA, 2022; Endsley, 2015; Boy, 2021b).
لقد أدت النمذجة والمحاكاة لتواجد العنصر البشري ضمن المنظومة إلى تطوير «التوائم الرقمية » واستخدامها بشكل متزايد، مما يسمح بالتمثيل الافترا ضي لنظام على مدار عمره من البداية إلى الزوال.
– جاي أندريه بوي
إلى جانب الثقة، فإن التعاون والتشارك يمثلان مفهومين مرتبطين ارتباطًا وثيقًا بالعمل الجماعي بين العنصر البشري والآلة في الأنظمة الناشئة متعددة الوكلاء في القوة الجوية مثل نظام القتال الجوي المستقبلي في أوروبا (FCAS)، والذي يضع تصور للأفتار الرقمية والأجنحة الموالية للعمل بشكل تعاوني جنبًا إلى جنب مع الطائرات المقاتلة المأهولة. أثناء التعاون، قد يكون لكل وكيل مصالح فردية ولكنهم يعملون نحو تحقيق هدف مشترك وذلك بمواءمة الإجراءات والجهود لتحقيق هدف واحد، وذلك بالرغم من احتمالية اختلاف الاهتمامات. غالبًا ما يظهر هذا المبدأ عند الحاجة للعمل في كيانات متعددة، مثل فكرة الألعاب القائمة على الفرق أو الأنظمة متعددة الوكلاء في البيئة العسكرية. بينما المبدأ المقابل يشمل التعاون المشترك بين وكلاء لديهم مصلحة ومشتركة وهدف مشترك كذلك. ويكون ذلك من خلال تكريس مواردهم، ومعرفتهم، ومهاراتهم لتحقيق هذا الهدف المشترك، حيث يتميز التعاون على الأغلب بالتواصل القوي والتفاهم المتبادل واتخاذ القرارات المشتركة. فعلى سبيل المثال في الأوركسترا يتعاون الموسيقيون لأداء السيمفونية، حيث ينسق قائد الأوركسترا والنوتة الموسيقية العزف بدقة (Boy, 2013a).
إن التدريب بهدف التعاون يُعد أمرًا ضروريًا نظرًا لأهمية العمل الجماعي الفعال لنماذج فرق العمل الناجحة. وعلى الرغم من ذلك، فيجب التركيز fبالأخص على تنمية السلوك التكيفي والمرن للوكلاء من خلال التدريب القائم على تكامل الأنظمة البشرية (HSI) والمحاكاة واختبار المرونة. تستدعي الحاجة مزيد من الفهم عن الذكاء الاصطناعي (AI) والاستقلالية التي سيكون مفتاحها الذكاء الاصطناعي (AI)، مثل قدرته على اتخاذ الخيارات عند حدوث مواقف غير متوقعة. إن تعليم الوكلاء كيفية التواصل بكفاءة، وفهم الأدوار كل فيما يخصه، وتنسيق أعمالهم لتحقيق النتائج المرجوة يُعد أمرًا بالغ الأهمية ويمكن أن يساعد في بناء فهم أفضل للاستقلالية التي يمكن للذكاء الاصطناعي (AI) أن يعطيها إمكانية السماحية لأخطاء العنصر البشري والآلة لتمكين الوكلاء من الاختيار عند حدوث مواقف غير متوقعة. إن المضي قُدمًا في ذلك سيتطلب بالضرورة حلولًا للنماذج الذهنية أو الإدراكية المشتركة بين الوكلاء، وتخصيص السلطة المستندة إلى العلم، والتعليم الأخلاقي والتدريب، والتصميم والإدارة بغرض الاستدامة للتأكيد على الاستقرار والتنفيذ والحوكمة، وإمكانية شرح سلوك الوكيل، ومعايرة الثقة بشكل تدريجي، وإمكانية تحييد العنصر البشري، وبروتوكولات الاتصال والتقييمات الدورية لدعم التحسين المستمر.
الخاتمة الاتجاه المستقبلي
تعتمد الأهمية المتزايدة للترابط في الهياكل التشغيلية الحالية والناشئة للقوة الجوية والفضائية على نهج نظام الأنظمة. فعلى سبيل المثال، فإن اللامركزية في القيادة والتحكم (C2) يتزايد تطبيقها من خلال أجهزة الكمبيوتر: توفر قمرات القيادة الرقمية للطيارين في الطائرات المقاتلة الحديثة تكاملاً محوره الإنسان لأنظمة القيادة والتحكم (C2) لدعم العمليات الموزعة عالية السرعة (Boy, 2023b). ومع ذلك، فلا تزال هناك تحديات أساسية في العمل الجماعي بين العنصر البشري والذكاء الاصطناعي (AI). إن تكامل الأنظمة البشرية (HSI) القائم على النمذجة يوفر إمكانات هائلة. إن قياس أداء العمل الجماعي بين العنصر البشر والذكاء الاصطناعي (AI) والاستفادة منه هو أمرًا ضروريًا لتسهيل التحسين المستمر والتأكد من أن نظام الأنظمة – الذي يتألف من العناصر البشرية والآلات – والذي يتزايد اعتماده على الذكاء الاصطناعي (AI) من الممكن أن يعمل على المستويات المثلى. لمعالجة فجوات التصميم، فسيكون من الضروري التطور من الأتمتة الصلبة إلى الاستقلالية المرنة، بحيث تكون الاستقلالية مفهومًا بين العنصر البشري والآلة (كما هو موضح في الشكل 2). إن المرونة المنهجية المتضمنة – مثل المستوى التكنولوجي أو البشري أو التنظيمي – ستتيح للمشغلين الحفاظ بسهولة على استمرارية الأعمال أثناء العمليات في المواقف غير المتوقعة عن طريق العثور على الدعم من واحد أو أكثر من الشركاء (Boy, 2021a).
ولكي يصبح ذلك ممكنًا، فإن بناء فهم مشترك لتكامل الأنظمة البشرية (HSI) بين الأطراف المعنية يُعد أمرًا ضروريًا لتوحيد مبادئ التكامل، مما سيترتب عليه مواصفات للنظام تثبت القابلية للتشغيل البيني. لطالما كانت إمكانية التشغيل البيني صعبة التحقيق بسبب الأنظمة التي تطورها شركات مختلفة باستخدام منهجياتها ومعاييرها وملكيتها الفكرية. علاوة على ذلك، فإن اعتماد تصميم النماذج والأنظمة للشراكة بين العنصر البشري والذكاء الاصطناعي (AI) سيتوقف على القدرة على تقييم سلامتها وموثوقيتها وفعاليتها. يمكن تحقيق ذلك بإنشاء معايير قوية لجمع وتحليل البيانات الهادفة المرتبطة بالأداء. إن تطوير السيناريوهات وعمليات المحاكاة الديناميكية القائمة على تواجد العنصر البشري ضمن المنظومة سيؤدي إلى الاكتشاف التدريجي للوظائف الناشئة وهياكل الأنظمة من خلال تحليلات النشاط التي تُنذر بالمحاولات المتكررة والتطورات المستقبلية (Boy et al., 2022). كما سيساعدون كذلك في تحديد العوامل البشرية الحاسمة وتحليل تأثيرها. من ناحية أخرى، فإن تحسين السياسات من أجل المشاركة المستمرة أمرًا ضروريًا لتقديم اقتصاد دائري يؤدي إلى واجهات أكثر فائدة وقابلة للاستخدام بين العنصر البشري والآلة. تعتبر الشهادات الفنية والتحقق من صحة الأنظمة والامتثال التنظيمي وإدارة المدخلات والتغذية العكسية المبنية على تجربة المستخدم أمرًا بالغ الأهمية، حيث ستقدم اتجاهًا مستقبليًا للبحث والتطوير.