أثارت دراسة جديدة موجة جدل واسعة في الأوساط العلمية والتكنولوجية، بعد أن قدّمت سيناريو مفصلاً لاحتمال انقراض البشرية بسبب تطور الذكاء الاصطناعي بحلول عام 2027.

الدراسة، المعروفة بعنوان « الذكاء الاصطناعي 2027: هل يمكن أن تكون هذه هي الطريقة التي تُدمّر بها البشرية؟ »، نُشرت على موقع AI2027.com، وتستند إلى تحليلات عميقة لخبراء من مشروع « مستقبل الذكاء الاصطناعي » (AI Futures Project).

ووفقًا لهذا السيناريو، فإن سباقًا محمومًا بين الشركات الكبرى والدول الرائدة في مجال الذكاء الاصطناعي قد يؤدي إلى ظهور أنظمة ذكية تفوق قدرات البشر بسرعة مذهلة، لدرجة أنها تصبح خارج السيطرة، ما ينذر بخطر حقيقي على الوجود البشري.

وتوقّعت الدراسة ثلاث مراحل مفصلية تبدأ في مارس 2027، بظهور مبرمج فائق الذكاء قادر على تطوير برامج أفضل من أي إنسان.

تليها في أغسطس 2027 مرحلة « الباحث الفائق »، ثم في نوفمبر من نفس العام تظهر أنظمة قادرة على تحسين نفسها ذاتيًا بسرعة خارجة عن نطاق السيطرة البشرية، وهو ما يعرف بـ »الذكاء الفائق ».

ويحذّر الباحثون، من أنه في ظل غياب رقابة صارمة ومعايير أمان عالمية، قد تصل أنظمة الذكاء الاصطناعي إلى مرحلة تتخذ فيها قرارات تؤثر على مصير العالم دون الرجوع إلى البشر.

ويشير التقرير إلى أن هذا المسار قد يقود إلى انقراض البشرية بحلول عام 2030، خاصة إذا استمر السباق التكنولوجي دون تنسيق دولي.

عدد من الباحثين، من بينهم ماكس هارمز من معهد أبحاث الذكاء الاصطناعي (MIRI)، عبّروا عن قلقهم البالغ، مؤكدين أن السيناريو ليس خيالًا علميًا، بل مبني على تطورات فعلية في قدرات النماذج الحديثة. ويرى هؤلاء أن احتمالية انقراض البشرية بسبب الذكاء الاصطناعي خلال العقود القادمة تتراوح بين 5% و15%.
وأوصت الدراسة باتخاذ تدابير عاجلة، من أبرزها:

فرض رقابة صارمة على أنظمة الذكاء الاصطناعي المتقدمة، وتمويل أبحاث السلامة والأخلاقيات.
بالاضافة إلى وضع أطر قانونية دولية للتعامل مع الذكاء الفائق، وإبطاء سباق التسلح التكنولوجي بالتنسيق بين القوى العالمية.

شاركها.