حذر مسؤول كبير في وكالة الأبحاث العلمية البريطانية من أن العالم ربما لا يمتلك الوقت الكافي للاستعداد للمخاطر المتزايدة المرتبطة بـ الذكاء الاصطناعي المتقدم. يأتي هذا التحذير في ظل تطورات سريعة في هذا المجال، مما يثير تساؤلات حول قدرتنا على فهم والسيطرة على هذه التقنيات قبل أن تتجاوز قدراتنا.

أدلى ديفيد دالريمبل، مدير البرامج وخبير سلامة الذكاء الاصطناعي بالوكالة، بتصريحاته لصحيفة الغارديان، مؤكدًا على الحاجة إلى أخذ هذه التطورات على محمل الجد. وتأتي هذه المخاوف في وقت يشهد فيه الذكاء الاصطناعي تقدمًا غير مسبوق في مختلف المجالات، من التعلم الآلي إلى الروبوتات.

مخاطر الذكاء الاصطناعي تتصاعد بوتيرة سريعة

أشار دالريمبل إلى أن الأنظمة التي تتفوق على البشر في أداء المهام المختلفة قد تقوض قدرتنا على الحفاظ على السيطرة على مجتمعاتنا وحضارتنا وكوكبنا. يعتقد أن التفوق المحتمل للذكاء الاصطناعي في العديد من المجالات يمثل تحديًا وجوديًا يتطلب اهتمامًا فوريًا. ويتسارع هذا التطور لدرجة أنه قد لا يترك لنا متسعًا من الوقت للاستعداد بشكل كافٍ.

وأضاف أن الآلات قد تتفوق على البشر في معظم المهام الاقتصادية الهامة في غضون خمس سنوات، وبجودة أعلى وتكلفة أقل. هذا التحول المحتمل في سوق العمل قد يؤدي إلى اضطرابات اجتماعية واقتصادية كبيرة، فضلاً عن التأثير على الأمن القومي.

توقعات حكومية بتحسين الإجراءات الأمنية

وشدد دالريمبل على أن الحكومات يجب ألا تفترض موثوقية هذه الأنظمة المتقدمة، بل يجب أن تنظر إليها على أنها عوامل زعزعة للاستقرار الأمني والاقتصادي. يتطلب ذلك تطوير استراتيجيات جديدة للتعامل مع هذه المخاطر، بما في ذلك الاستثمار في البحث والتطوير في مجال سلامة الذكاء الاصطناعي.

وفي هذا السياق، أعلن معهد أمن الذكاء الاصطناعي التابع للحكومة البريطانية أن قدرات نماذج الذكاء الاصطناعي المتقدمة تتحسن بسرعة ملحوظة. تشير البيانات إلى أن الأداء في بعض المجالات يتضاعف كل ثمانية أشهر، مما يؤكد الحاجة الملحة إلى اتخاذ إجراءات وقائية. ووفقًا للمعهد، بلغت قدرة النماذج الرائدة حاليًا مستوى المتدرب بنسبة 50% في المتوسط، مقارنة بحوالي 10% في العام الماضي.

هذه التطورات تأتي في أعقاب تحذيرات مماثلة من علماء بارزين، بما في ذلك جيفري هينتون، المعروف بـ “عراب الذكاء الاصطناعي”، الذي عبر عن مخاوفه بشأن إمكانية أن تؤدي هذه التكنولوجيا إلى انقراض البشرية. وقد دعا إلى إعادة النظر في النهج المتبع لتطوير الذكاء الاصطناعي.

وتشهد هذه القضية أيضًا حراكًا اجتماعيًا متزايدًا، حيث نظمت احتجاجات أمام مقر شركة OpenAI في سان فرانسيسكو للمطالبة بوقف التصاعد السريع لتطوير الذكاء الاصطناعي. يعكس هذا الحراك القلق المتزايد لدى الجمهور بشأن العواقب المحتملة لهذه التكنولوجيا.

لا تقتصر المخاوف على الجانب الأمني والاقتصادي، بل تشمل أيضًا قضايا أخلاقية وقانونية تتعلق بمسؤولية الذكاء الاصطناعي وتأثيره على حقوق الإنسان. يتطلب ذلك حوارًا مجتمعيًا واسعًا لتحديد المبادئ التوجيهية اللازمة لتطوير واستخدام هذه التكنولوجيا بشكل مسؤول.

بالإضافة إلى الذكاء الاصطناعي، هناك اهتمام متزايد بمجالات ذات صلة مثل التعلم العميق ومعالجة اللغة الطبيعية، والتي تمثل اللبنات الأساسية للعديد من التطبيقات المتقدمة. يتطلب فهم هذه التقنيات المتشابكة جهودًا مشتركة من الباحثين والمطورين وصناع السياسات.

في المستقبل القريب، من المتوقع أن تستمر الحكومات والمؤسسات البحثية في تقييم المخاطر المرتبطة بالذكاء الاصطناعي ووضع استراتيجيات للتخفيف منها. سيشمل ذلك الاستثمار في البحث والتطوير، وتطوير الأطر القانونية والأخلاقية، وتعزيز التعاون الدولي. ومع ذلك، لا تزال هناك حالة من عدم اليقين بشأن مدى قدرتنا على السيطرة على هذه التكنولوجيا وتوجيهها نحو تحقيق أهداف إيجابية.

شاركها.