اخبار المغرب

النواب الأوروبيون يعتزمون تقييد استعمال “تشات جي بي تي”

سعيا إلى تنظيم تطبيقات المحادثة، مثل “تشات جي بي تي”، يصوت النواب الأوروبيون الخميس على نص طموح لتنظيم قطاع الذكاء الاصطناعي، أرجئ اعتماده مرارا بسبب نقاط الجدل المحيطة بهذه التقنيات.

ويعتزم الاتحاد الأوروبي أن يكون أول جهة في العالم ترسي إطارا قانونيا متكاملا للحد من التجاوزات في مجال الذكاء الاصطناعي، مع حماية الابتكار في الوقت نفسه.

وتثير أنظمة الذكاء الاصطناعي التي تتسم بتقنيّات في غاية التعقيد الكثير من الإعجاب والذهول، وفي الوقت نفسه الكثير من القلق.

فبين نشر محتويات خطيرة والتلاعب بالرأي العام من خلال إنتاج صور مزيفة بواسطة برمجيات مثل “ميدجورني”، وتطبيق أنظمة مراقبة جماعية، وغيرها من المخاطر غير المعروفة بعد، حملت هذه الهواجس شخصيات بارزة في عالم التكنولوجيا أمثال رئيس “تويتر” إيلون ماسك على المطالبة حتى بتعليق تطوير هذه التقنيات.

واكتشف الرأي العام قدرات الذكاء الاصطناعي الهائلة في نهاية العام الماضي مع إطلاق شركة “أوبن إيه آي” برنامجها “تشات جي بي تي” لإنتاج المحتويات التحريريّة، القادر على كتابة مواضيع بحثيّة وقصائد وترجمات في عدة ثوان.

وفي مواجهة هذه التطورات السريعة، طرحت المفوضية الأوروبية قبل عامين مشروع قانون لم يتم إقراره حتى الآن.

ولم تحدد دول الاتحاد الأوروبي موقفها سوى في نهاية 2022، على أن يبلور النواب الأوروبيون المنقسمون بشدة حول هذه المسألة موقفهم الخميس في عملية تصويت ضمن لجان تجري في ستراسبورغ، قبل أن يتم إقرار النتيجة خلال جلسة موسعة في يونيو؛ وعندها تبدأ مفاوضات صعبة بين مختلف المؤسسات.

ودعت نائبة رئيسة المفوضية الأوروبية مارغريتي فيستاغر، الإثنين، إلى عدم إهدار المزيد من الوقت، قائلة: “آمل فعلا أن نتمكن من إتمام المسألة هذه السنة”.

وما ساهم في التأخير ظهور تطبيقات الذكاء الاصطناعي شائعة الوظائف القادرة على إنجاز مجموعة متنوعة من المهام، ومن ضمنها برامج توليد محتويات مثل “تشات جي بي تي”.

مطلب الشفافية

قال المقرر دراغوس تودوراش لوكالة فرانس برس: “إنه نصّ معقد. وقد أضفنا مجموعة جديدة من القواعد الخاصة بالذكاء الاصطناعي المولّد للمحتويات”.

ويأمل النواب الأوروبيون إرغام المزوّدين على ضمان حماية ضد المحتويات غير القانونية، وكشف البيانات المحمية بموجب حقوق النشر المستخدمة لتطوير خوارزمياتهم.

غير أن بعض الخبراء يعتبرون أن مخاطر الذكاء الاصطناعي المولد للمحتويات لا تتطلب قواعد خاصة للتعامل معه. وأوضح بيار لاروش، خبير القانون الرقمي في جامعة مونتريال والباحث في مركز القوانين في أوروبا، لفرانس برس: “لا أرى دوافع البرلمان. لا أرى كيف أن هذه المخاطر مختلفة عمّا تم التكهن به سابقا”.

وتنص مسودة المفوضية التي كشف عنها في أبريل 2021 على إطار لأنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، يرغمها على إبلاغ المستخدم بأنه على تواصل مع آلة، ويرغم التطبيقات المولدة للصور على الإشارة إلى أنها مولّدة اصطناعيّا.

ويستوحي النص قوانينه من التشريعات الأوروبية السارية على صعيد سلامة المنتجات، وسيفرض مراقبة تكلف بها الشركات بالمقام الأول.

وستكون المحظورات نادرة، وهي تتعلق بالتطبيقات المخالفة للقيم الأوروبية، مثل أنظمة تقييم المواطنين أو أنظمة المراقبة الجماعية المعتمدة في الصين.

ويعتزم النواب الأوروبيون إدخال حظر على أنظمة التعرف على المشاعر وإلغاء الاستثناءات التي تجيز لقوات الأمن التعرف على الأفراد في الأماكن العامة عن بعد بواسطة القياسات الحيوية؛ كما يعتزمون حظر جمع الصور بشكل عشوائي على الإنترنت لتطوير الخوارزميات بدون الحصول على موافقة الأشخاص المعنيين.

ويتألف المشروع في جوهره من قائمة قواعد ستفرض فقط على التطبيقات التي تعتبرها الشركات نفسها “عالية المخاطر” بموجب معايير المشرعين. واقترحت المفوضية الأوروبية أن تستهدف الأنظمة المستخدمة في مجالات حساسة مثل البنى التحتية الحرجة والتعليم والموارد البشرية والحفاظ على النظام وإدارة الهجرة وغيرها.

ومن بين ما تفرضه القواعد رقابة بشرية على الآلة ووضع وثائق إرشاديّة تقنية، واعتماد نظام لإدارة المخاطر، على أن تشرف على تطبيقها سلطات الرقابة التي تعينها كل من الدول الأعضاء.

ويطالب النواب الأوروبيون بمعايير أكثر صرامة لحصر توصيف “عالي المخاطر” فقط في المنتجات التي يمكن أن تهدد الأمن والصحة والحقوق الأساسية.

المصدر: هسبريس

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *