أما بعد: ذكاء اصطناعي لا يخضع للقانون.. ليس تقدما بل تهديدا

في زمن تتسارع فيه وتيرة التطور التكنولوجي ويفرض الذكاء الاصطناعي نفسه كلاعب رئيسي في التحول الرقمي العالمي، يجد المغرب نفسه أمام معادلة دقيقة: كيف نحتضن هذه التكنولوجيا الواعدة دون أن نفرّط في المبادئ والقيم القانونية التي يقوم عليها المجتمع الديمقراطي؟.
وبينما تتزايد إمكانيات الذكاء الاصطناعي في تسريع الابتكار وتحسين الكفاءة، يظل السؤال الكبير: كيف نضمن استخدامه بشكل آمن ومسؤول يحترم حقوق الأفراد وحرياتهم؟.
في هذا السياق، جاء تقرير مجموعة العمل البرلمانية الموضوعاتية المؤقتة حول “الذكاء الاصطناعي: آفاقه وتأثيراته” الصادر مؤخرا عن مجلس النواب، ليثير العديد من النقاشات حول الفرص والتحديات المرتبطة بتطبيق هذه التكنولوجيا في المغرب.
رغم أن التقرير يسلط الضوء على ضرورة تنظيم استخدام الذكاء الاصطناعي، إلا أن الملاحظ هو أن هناك قصورا في تحديد إطار قانوني شامل يتواكب مع السرعة الفائقة التي يتطور بها هذا المجال.
التقرير يتحدث عن ضرورة وضع تشريعات تنظم استخدام الذكاء الاصطناعي، ولكنه لا يقدم حلاً ملموسًا أو آلية تطبيق فعالة تُحسن من حماية المعطيات الشخصية. فالمغرب بحاجة ماسة إلى قوانين تواكب التطورات التكنولوجية التي تشهدها العالم اليوم، بما في ذلك تخصيص قوانين صارمة لمراقبة استخدام البيانات الشخصية والتأكد من سلامتها.
ومن النقاط التي يغفل عنها التقرير بشكل غير مباشر هي مسؤولية الشركات الخاصة في حماية البيانات الشخصية. فالمؤسسات التي تستخدم الذكاء الاصطناعي، سواء في القطاع العام أو الخاص، يجب أن تتحمل مسؤولية جمع وتخزين واستخدام المعطيات الشخصية بما يتوافق مع القوانين الحالية. ومع ذلك، غياب الرقابة الكافية قد يجعل البيانات عرضة للاستغلال بطرق غير قانونية أو ضارة، مما يهدد خصوصية الأفراد.
أحد الجوانب التي لم يتم التطرق إليها بشكل كافٍ في التقرير هي القضايا الأخلاقية المرتبطة باستخدام الذكاء الاصطناعي، مثل التحيز في الخوارزميات والتأثير على سوق الشغل. الذكاء الاصطناعي قد يسهم في خلق فجوات اجتماعية أكبر إذا لم يتم التحكم في طريقة تطبيقه. ومن ثم هناك حاجة لتفعيل سياسات تضمن أن تكون هذه التكنولوجيا عادلة وأن لا تؤدي إلى التمييز أو الإقصاء.
فالذكاء الاصطناعي لم يعد حكرًا على المختبرات ومراكز البحث، بل أصبح أداة حاضرة في السياسات العمومية، وتسيير الخدمات، بل وفي التأثير على مصائر الأفراد. غير أن السؤال الجوهري الذي يفرض نفسه بإلحاح هو: من يراقب الذكاء الاصطناعي؟ ومن يضمن ألا يتحول إلى أداة للتجسس أو التمييز أو التلاعب؟
الجواب واضح: لا يمكن، ولا يجب، استخدام الذكاء الاصطناعي خارج القانون.
إن القانون، وخصوصًا قانون حماية المعطيات ذات الطابع الشخصي (رقم 09.08)، ليس مجرد إجراء إداري، بل هو جدار الحماية الأخير في وجه الاستعمال العشوائي أو المسيء للبيانات، والتي تشكل المادة الخام لأنظمة الذكاء الاصطناعي. وفي وقت أصبح فيه جمع المعلومات الشخصية وتحليلها يتمان بسرعة ودقة لا مثيل لهما، يغدو احترام هذا القانون مسألة سيادية، بل ومجتمعية.
من دون تأطير قانوني صارم، قد نكون أمام أنظمة تتخذ قرارات مصيرية بشأن حياة الناس في التعليم، في التوظيف، في القروض، أو حتى في العدالة دون أي شفافية، ودون إمكانية للطعن أو المراجعة. وهذا يشكل خطرًا لا يقل عن الرقابة الجماعية أو التمييز الممنهج.
الثقة الرقمية لا تُمنح، بل تُكتسب. وهي تُبنى على احترام الحقوق، وعلى مسؤولية الدولة والمؤسسات في ضمان أن تبقى التكنولوجيا خادمة للإنسان، لا متحكمة فيه.
اليوم، المغرب في حاجة إلى مقاربة استباقية ومسؤولة، تضع إطارًا وطنيًا واضحًا لاستخدام الذكاء الاصطناعي، من خلال:
تحديث التشريعات لمواكبة التطورات التكنولوجية، تعزيز دور اللجنة الوطنية لمراقبة حماية المعطيات الشخصية.
إلزام الشركات والمؤسسات العمومية بالشفافية والامتثال القانوني، وإشراك المجتمع المدني والباحثين في صياغة السياسات المرتبطة بالتحول الرقمي.
مراجعة قانون حماية المعطيات الشخصية (القانون رقم 09.08) نحو اعتماد إجراءات زجرية فعّالة هو شرط أساسي لتعزيز الثقة الرقمية وضمان احترام حقوق المواطنين.
ويمكن في هذا الباب تشديد العقوبات المالية والإدارية، عبر رفع سقف الغرامات المفروضة على الجهات المخالفة بشكل يتناسب مع حجم الانتهاك وعدد المتضررين، أسوة بما هو معمول به في اللائحة الأوروبية لحماية البيانات (GDPR)، التي تصل غراماتها إلى 4% من رقم المعاملات السنوي العالمي.
تجريم بعض الممارسات المرتبطة بإساءة استخدام المعطيات إدراج نصوص زجرية ذات طابع جنائي تعاقب على:المعالجة غير القانونية أو غير المرخصة للبيانات، وتسريب البيانات الشخصية عمداً أو بسبب الإهمال الجسيم، بيع أو استغلال المعطيات لأغراض تجارية دون موافقة صريحة.
التنصيص على عقوبات بالسجن في حالات التلاعب المتعمد بالمعطيات الحساسة (الصحية، الوراثية، البيومترية…).
كما يستوجب الأمر تقوية صلاحيات اللجنة الوطنية لمراقبة حماية المعطيات الشخصية، عبر منح اللجنة صلاحيات تفتيش ومراقبة ميدانية فورية دون إذن قضائي مسبق في بعض الحالات، لأنه لا جدوى من مؤسسة تسهر على حماية معطيات المواطين دون أنياب.
علازة على ذلك، يتعين تمكين اللجنة الوطنية من إصدار أوامر فورية بالإيقاف المؤقت للأنظمة التي تشكل خطرًا على حقوق الأفراد.والسماح لها برفع دعاوى قضائية باسم المتضررين، أو الانتصاب طرفًا مدنيًا في القضايا المرتبطة بحماية البيانات.
أخيرا، يبقى من الأهمية بمكان أن يتضمن التقرير البرلماني السالف الذكر استراتيجيات وطنية واضحة لمواكبة التطور السريع في مجال الذكاء الاصطناعي، بما يعزز الابتكار مع حماية حقوق الأفراد. ومن هنا، فإن السياسات الحكومية يجب أن تدعم البحث والتطوير في الذكاء الاصطناعي، مع ضمان وجود رقابة صارمة لمنع أي استغلال غير قانوني.
إن تقرير مجموعة العمل الموضوعاتية البرلمانية حول “الذكاء الاصطناعي: آفاقه وتأثيراته” هو خطوة هامة نحو فهم تطور هذه التقنية في المغرب، لكنه يظل بحاجة إلى مزيد من التفصيل في معالجة القضايا القانونية، الأخلاقية، والاجتماعية. من خلال تطوير إطار قانوني شامل، وتعزيز الرقابة المستقلة، والتوعية المجتمعية، يمكن للمغرب أن يُؤسس لبيئة آمنة وموثوقة تتيح للذكاء الاصطناعي أن يساهم في تحقيق التنمية دون المساس بحقوق الأفراد أو مصلحتهم.
في النهاية الأمر لايتعلق بالخوف من التكنولوجيا، بل بضمان أن تبقى هذه الأخيرة في خدمة الإنسان، في ظل دولة القانون. لأن ذكاء لا يخضع للقانون، ليس تقدّما بل تهديدا.
المصدر: العمق المغربي