أعلنت شركة OpenAI، المطورة لبرنامج ChatGPT، عن وظيفة جديدة براتب سنوي يصل إلى 555 ألف دولار أمريكي. هذه الوظيفة، التي وصفت بأنها صعبة للغاية، تهدف إلى قيادة جهود الشركة في مواجهة المخاطر المتزايدة المرتبطة بـ الذكاء الاصطناعي، بما في ذلك التهديدات المحتملة للصحة النفسية والأمن السيبراني.
تأتي هذه الخطوة في وقت يشهد فيه مجال الذكاء الاصطناعي تطورات سريعة ومخاوف متزايدة بشأن الاستخدامات الضارة المحتملة لهذه التقنية. الوظيفة، التي تحمل مسمى “رئيس قسم التأهب”، ستكون مسؤولة عن تقييم هذه التهديدات والتخفيف من آثارها، والاستعداد للتحديات المستقبلية التي قد تنشأ مع تطور قدرات الذكاء الاصطناعي.
تحديات وظيفة “رئيس قسم التأهب” في مجال الذكاء الاصطناعي
وفقًا لـ OpenAI، فإن الشخص الذي سيشغل هذا المنصب سيكون مسؤولاً بشكل مباشر عن الدفاع ضد المخاطر التي يشكلها الذكاء الاصطناعي، والتي تتراوح بين التأثيرات السلبية على الصحة النفسية وصولًا إلى التهديدات الأمنية المعقدة مثل الهجمات السيبرانية والأسلحة البيولوجية. يُضاف إلى ذلك القلق المتزايد بشأن إمكانية تطوير الذكاء الاصطناعي ذاتيًا، وهو سيناريو يثير مخاوف بعض الخبراء من أن هذه الأنظمة قد تتجاوز السيطرة البشرية.
صرح سام ألتمان، الرئيس التنفيذي لـ OpenAI، بأن الوظيفة ستكون “مرهقة” وأن المرشح الناجح “سيكون في قلب الحدث فورًا”. وأشار إلى أن الهدف من هذا التعيين هو “مساعدة العالم” في التعامل مع التحديات التي يفرضها الذكاء الاصطناعي.
مخاوف متزايدة من خبراء الذكاء الاصطناعي
لم تكن OpenAI الوحيدة التي أعربت عن قلقها بشأن مخاطر الذكاء الاصطناعي. فقد صرح مصطفى سليمان، الرئيس التنفيذي لقسم الذكاء الاصطناعي في مايكروسوفت، بأنه “من لا يشعر ببعض الخوف في هذه اللحظة، فهو غافل عما يحدث”. كما حذر ديميس هاسابيس، المؤسس المشارك لشركة Google DeepMind، من مخاطر محتملة قد تؤدي إلى خروج الذكاء الاصطناعي عن مساره والإضرار بالبشرية.
هذه التحذيرات تأتي في ظل غياب تنظيم شامل للذكاء الاصطناعي على المستويين الوطني والدولي. يوشوا بنجيو، أحد رواد مجال الذكاء الاصطناعي، ذكر مؤخرًا أن “حتى الشطيرة تخضع لتنظيم أكثر من الذكاء الاصطناعي”، مما يسلط الضوء على الحاجة إلى إطار تنظيمي واضح.
تطور القدرات التخريبية للذكاء الاصطناعي
تشير التقارير إلى أن قدرات الذكاء الاصطناعي في مجالات مثل الاختراق السيبراني تتطور بسرعة. فقد أعلنت شركة Anthropic عن أول هجوم إلكتروني تم تنفيذه بشكل شبه مستقل بواسطة الذكاء الاصطناعي، حيث تمكنت جهات يُشتبه في ارتباطها بدولة صينية من اختراق البيانات الداخلية. وفي السياق نفسه، ذكرت OpenAI أن أحدث نماذجها أصبحت أكثر كفاءة في الاختراق بثلاثة أضعاف تقريبًا مقارنة بما كانت عليه قبل ثلاثة أشهر، متوقعة استمرار هذا التطور.
التعلم الآلي والقدرة على معالجة البيانات الضخمة تساهم في هذا التطور السريع. الشبكات العصبونية، وهي أساس العديد من تطبيقات الذكاء الاصطناعي، تسمح للأنظمة بالتعلم والتكيف بشكل مستمر.
تواجه OpenAI أيضًا تحديات قانونية تتعلق بتأثير تطبيقاتها على الصحة النفسية. تدافع الشركة حاليًا ضد دعوى قضائية رفعتها عائلة شاب انتحر بعد تفاعله مع برنامج ChatGPT، حيث زُعم أن البرنامج شجعه على الانتحار. قضية أخرى تتهم ChatGPT بتحريض مريض نفسي على قتل والدته ثم الانتحار.
أكد متحدث باسم OpenAI أن الشركة تراجع هذه القضايا بجدية وتعمل على تحسين تدريب ChatGPT للتعرف على علامات الضيق العقلي والعاطفي وتقديم الدعم المناسب.
من المتوقع أن تستمر المناقشات حول تنظيم الذكاء الاصطناعي وتطوير آليات للحد من مخاطره المحتملة. ستراقب الجهات المعنية عن كثب التطورات في هذا المجال، بما في ذلك التقدم في الذكاء الاصطناعي التوليدي، والبحث عن حلول لضمان استخدام هذه التقنية بشكل آمن ومسؤول. من المرجح أن تشهد الأشهر القادمة المزيد من الدعوات إلى التعاون الدولي لوضع معايير وقواعد تحكم تطوير ونشر الذكاء الاصطناعي.
