«التحيّز» أبرز مخاطر «الذكاء الاصطناعي» في تقييم المواهب الوظيفية
أكدت الهيئة الاتحادية للموارد البشرية الحكومية، أنه على الرغم من أن تقنيات الذكاء الاصطناعي باتت توفر مجموعة متنوعة من الفوائد المحتملة في عمليات تقييم جهات العمل للمواهب الوظيفية العاملة لديها أو الراغبة في العمل، إلّا أن استخدام أساليب الذكاء الاصطناعي في هذه العملية قد ينطوي على مخاطر عدة، أبرزها المخاطر القانونية ومخاطر العلاقات العامة ومخاطر الفعالية.
وذكرت الهيئة، في دليل إرشادي أطلقته أخيراً بشأن استخدام تقنيات الذكاء الاصطناعي في عمليات تقييم المواهب الوظيفية، أن المخاطر القانونية المرتبطة باستخدام الذكاء الاصطناعي في تقييم المواهب، تتمثل في فئتين رئيستين، الأولى تتعلق بـ«حماية البيانات»، والثانية تختص بـ«التحيّز».
وشرحت أن العديد من الدول وضعت لوائح قانونية تحدد الاستخدام المسموح به لتطبيق أساليب الذكاء الاصطناعي الخاصة بتحليل البيانات المتعلقة بالأفراد، لتلافي ذلك.
وقالت إن دولة الإمارات أصدرت قانون حماية البيانات الشخصية، الذي يتسم بمرونة عالية، لتمكين أنظمة الذكاء الاصطناعي في الدولة ودعم تبنيها، حيث تتعلق هذه اللوائح بالحماية القانونية التي تكتنف مسألة جمع واستخدام البيانات الشخصية.
وأفادت بأن التحيّز في تقييم المواهب الوظيفية يحدث عندما يميّز التقييم بشكل غير عادل ضد أحد الأفراد بناءً على واحدة أو أكثر من خصائصه، أو خلفيته (على سبيل المثال: العرق، الإثنية، الدين، البلد الأصلي، الجنس العمر، حالة الإعاقة). وتابعت: «تتمثل إحدى فوائد أساليب الذكاء الاصطناعي في تقييم المواهب، بأنها يمكن أن تؤدي إلى تقليل هذا التحيّز عن طريق الحد من تأثير الحكم البشري الذاتي، إذ يمكن أن يؤدي دمج الذكاء الاصطناعي في التقييم إلى زيادة التحيز وتوطيده، إذا لم يتم بشكل صحيح وتحت إشراف الخبراء».
وأكدت أن استخدام أساليب الذكاء الاصطناعي في تقييم المواهب ينطوي أيضاً على مخاطر تتعلق بتصوّر الجمهور للمؤسسة، إذا لم يتم تصميم طرق الذكاء الاصطناعي وتطويرها بطريقة حذرة ومدروسة. وعلى سبيل المثال، يمكن للمرشحين الذين يتم تقييمهم باستخدام التقييم القائم على الذكاء الاصطناعي، والذين يقررون أنه غير عادل أو تدخلي، مشاركة ردود الفعل السلبية هذه مع شبكتهم، وعلى وسائل التواصل الاجتماعي، ما قد يضر بسمعة المؤسسة. كما يمكن أن يكون لها تأثير سلبي على كمية ونوعية المتقدمين إلى المؤسسة.
وأشارت إلى وجود مخاطر أخرى قد تنجم عن أساليب الذكاء الاصطناعي في التقييم، تُعرف بـ«مخاطر الفعالية»، وهي مخاطر استخدام تقييم قائم على الذكاء الاصطناعي لا يعمل كما هو متوقع.
وأوضحت أن «تعقيد مصادر البيانات وتقنيات النمذجة التي تم تمكينها بواسطة أساليب الذكاء الاصطناعي، يعني أنه حتى الخبراء الذين يصممون تقييماً للذكاء الاصطناعي قد لا يعرفون بالضبط كيف يعمل وكيف يصل إلى توقعاته أو قراراته. ويكمن الخطر في أن التقييم قد يبدو أنه يعمل بشكل جيد في الدراسات التجريبية، لكن الخبراء لا يعرفون كيف يقوم باتخاذ القرارات. وفي هذه الحالة، لا يمكنهم التنبؤ بدقة أو توقع مدى جودة أدائه عند استخدامه في سيناريوهات جديدة، مثل اتخاذ قرارات بشأن بيانات الحياة الواقعية في ظروف جديدة لم ترها الخوارزميات من قبل».
تابعوا آخر أخبارنا المحلية والرياضية وآخر المستجدات السياسية والإقتصادية عبر Google news
المصدر: الإمارات اليوم