قال الباحثان المغربيان إبراهيم أيت واركان وحمزة الكندي إن “ضبط حدود استخدام الذكاء الاصطناعي بالقطاع العام يعد أحد التحديات المطروحة، اليوم، أمام القانون”.
وأكد الباحثان، ضمن دراسة لهما صادرة ضمن أحدث أعداد “مجلة المقالات الدولية”، أن “منح الذكاء الاصطناعي المستند إلى الشبكات العصبية الاصطناعية صلاحيات تقريرية من دون فهم دقيق لطريقة عمله يثير إشكالات جدية أمام النظرية القانونية”.
وأشار أيت واركان والكندي، في متن الدراسة سالفة الذكر، إلى أن “الحد الأقصى المشروع لاستخدام الذكاء الاصطناعي من لدن السلطات العمومية يتمثل في احترام الحقوق الأساسية للمواطنين. ومن ثم، يتحدد الهدف العام للبحث في محاولة رصد الحدود القانونية التي ينبغي أن تؤطر لجوء السلطات إلى هذا النوع من الذكاء في ضوء مبادئ الحقوق الدستورية”.
وأضاف المصدر ذاته أنه “يجب تحديد الحقوق والالتزامات الأساسية، سواء بالنسبة للمستخدم أو للنظام نفسه أثناء تشغيله؛ ما يفتح المجال أمام جدل واسع بشأن الاستخدام المتزايد للذكاء الاصطناعي”.
وتابعت الوثيقة:” يُفرض على الحكومات وضع سياسات وآليات تنظيمية بشكل سريع يضمن تشجيع استخدامه دون تجاوز الحدود الأخلاقية. وقد يؤدي التأخر في اعتماد هذه التكنولوجيا إلى عجز المؤسسات عن التفاعل بفعالية مع الحاجات الاجتماعية المتجددة”.
ومن بين التحديات المرصودة في هذا السياق “حماية الخصوصية وتعزيز الشفافية وضمان الشمول، إلى جانب الأمن السيبراني واستخدام البيانات، ثم تأهيل الموارد البشرية وتعزيز الثقة المجتمعية في هذه التقنية”، على اعتبار أن “الذكاء الاصطناعي يعتمد على المعطيات الشخصية والجماعية في عمله، بشكل يستوجب تحديد حدود واضحة للمعلومات التي يتم الكشف عنها حتى لا يقع انتهاكٌ لحقوق الخصوصية”.
وطرحت الدراسة المشار إليها احتمالية أن تؤدي خوارزميات الذكاء الاصطناعي إلى “نتائج تُقصي فئاتٍ اجتماعية معينة؛ مما بإمكانه تشكيل تحدٍّ أمام القطاع العام بشأن ضمان تمثيل كل الفئات بشكل عادل”، زيادة على احتمالية “تعرّض البرمجيات والأجهزة التقنية لأعطاب تهدد أمن المستخدمين”.
ويتطلب هذا الأمر، حسب المصدر نفسه، “الاستخدام الفعال للبيانات والتكنولوجيا والوصول إلى معطيات دقيقة ومتوافقة مع المعايير الأخلاقية. ويفرض ذلك وضع إرشادات واضحة لتنزيل الذكاء الاصطناعي في الإدارة العمومية وضمان توفر قواعد بيانات آمنة وموثوقة لتحقيق نتائج ملائمة وأكثر دقة”.
وذكّر الباحثان المغربيان بمحورية العنصر البشري في هذا المسار، حيث يقتضي هذا الواقع الجديد، وفقهما، “وجود موظفين متمكنين من استيعاب قدرات الذكاء الاصطناعي ومواكبة التطورات التقنية الجارية، بغرض توظيف فعالٍ لهذه الأدوات داخل الإدارة”، مشيريْن إلى أن “استخدامها وقبول المواطنين بها يعتبر تحديا جوهريا في القطاع العام، إذ يتطلب ذلك تقديم ضمانات قانونية بخصوص المخاطر المحتملة التي قد تنجم عن هذا الاستخدام، وتوضيح المكاسب المنتظرة منه، لا سيما تحسين جودة الخدمات”.
وباستحضارها لتجارب أجنبية مقارنة، ذكّرت الدراسة ذاتها أن “استخدام أنظمة الذكاء الاصطناعي في القطاع العدلي يجب أن يضمن الحقوق الأساسية للأفراد. أما استخدامها في قطاع التعليم فيرتبط باستيفاء عدد من الشروط الأساسية، في حين يقتضي توظيفها في المجال الصحي إجراء دراسات معمقة حول المخاطر المحتملة المرتبطة بضعف الشفافية، في ظل وجود قصور تشريعي في هذا الجانب”.
يشار إلى أن الدراسة المعنونة بـ”الذكاء الاصطناعي في القطاع العام بين ضمان التحول الرقمي وحماية الحقوق الدستورية” ساهم في إعدادها كل من إبراهيم أيت واركان، وهو أستاذ باحث بجامعة شعيب الدكالي، وحمزة الكندي، دكتور في العلوم القانونية والسياسية بجامعة محمد الخامس بالرباط.
المصدر: هسبريس