خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في ظل التطور المتسارع لتقنيات الذكاء الاصطناعي، تتصاعد المخاوف بشأن إمكانية استغلال هذه الأدوات في أغراض خطيرة، أبرزها تطوير أسلحة بيولوجية. فبينما يُنظر إلى الذكاء الاصطناعي كمحرك للابتكار في مجالات الطب والعلوم، كشفت تجارب حديثة عن قدرته على تقديم إرشادات مفصلة لمسببات الأمراض، ما يفتح الباب أمام تهديدات جديدة ومعقدة.

أجرى الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد، تجربة صادمة خلال فصل الصيف الماضي، حين طُلب منه تقييم أحد برامج الدردشة الآلية المعتمدة على الذكاء الاصطناعي. تفاجأ ريلمان بأن البرنامج لم يقتصر على تقديم معلومات عامة، بل لجأ إلى شرح تفصيلي لكيفية تعديل مسبب مرض خطير ليصبح مقاومًا للعلاجات المتاحة.

وأضافت الصحيفة أن البرنامج لم يكتفِ بذلك، بل عرض سيناريوهات دقيقة لنشر المسبب المرضي، مشيرًا إلى ثغرة أمنية يمكن استغلالها في نظام نقل عام. وفقًا لريلمان، تضمنت التعليمات خطوات لزيادة عدد الضحايا المحتملين مع تقليل فرص الكشف عن الجهة المنفذة، الأمر الذي أثار لديه رعبًا شديدًا. هذا التجاوز للخطوط الحمراء دفع ريلمان لطلب عدم الكشف عن اسم المسبب المرضي أو أي تفاصيل إضافية، خشية استغلالها.

نماذج الذكاء الاصطناعي تتجاوز المعلومات العامة

يُعد ريلمان ضمن مجموعة محدودة من الخبراء الذين تتعاون معهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وقد أظهرت محادثات أجراها عدد من هؤلاء الخبراء مع روبوتات الدردشة، ونشرتها صحيفة “نيويورك تايمز”، أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تفوق المعرفة العامة. شمل ذلك شرحًا مفصلًا لكيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، وحتى نشرها في أماكن عامة مع اقتراح وسائل لتجنب الكشف.

لطالما وضعت الحكومات، بما في ذلك الولايات المتحدة، خططًا لمواجهة التهديدات البيولوجية المحتملة، والتي تشمل استخدام كائنات دقيقة أو سموم فتاكة. وعلى الرغم من أن احتمالية وقوع كارثة بيولوجية واسعة النطاق لا تزال منخفضة نسبيًا، إلا أن تداعياتها يمكن أن تكون كارثية، بما في ذلك الوفاة الملايين.

الذكاء الاصطناعي يوسع نطاق مخاطر الأسلحة البيولوجية

يشير العديد من الخبراء إلى أن الذكاء الاصطناعي يلعب دورًا محوريًا في زيادة هذه المخاطر، من خلال توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت في السابق حكرًا على المتخصصين. فقد أصبحت البروتوكولات العلمية المتقدمة متاحة على نطاق واسع، كما بدأت الشركات في بيع المكونات الجينية الصناعية (DNA وRNA) مباشرة للمستهلكين.

قدم كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. في إحدى هذه الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة. وفي مثال آخر، قام برنامج بتصنيف مسببات الأمراض وفقًا لقدرتها على إلحاق الضرر بقطاع الثروة الحيوانية، بينما قدم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان. أشار إسفلت إلى أن بعض هذه المعلومات كانت خطيرة للغاية لدرجة لا تسمح بنشرها علنًا.

في تجربة منفصلة، طلب عالم أميركي، فضّل عدم الكشف عن اسمه، من أحد أنظمة الذكاء الاصطناعي تقديم “بروتوكول خطوة بخطوة” لإعادة تصنيع فيروس تسبب في جائحة سابقة. جاء الرد في شكل تعليمات مفصلة بلغت حوالي 8 آلاف كلمة، تتضمن كيفية الحصول على المكونات الجينية وتجميعها. على الرغم من وجود بعض الأخطاء، فإن هذه المعلومات يمكن أن تكون مفيدة لشخص ذي نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة مع السياسات التي تهدف إلى تعزيز الريادة الأميركية في مجال الذكاء الاصطناعي. وشهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، بالإضافة إلى انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة. كما يشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة تمامًا، وأن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل”، أنها تعمل باستمرار على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات. ومع ذلك، تبقى التحديات قائمة أمام الشركات والهيئات التنظيمية لضمان الاستخدام المسؤول لهذه الأدوات القوية.

تتواصل جهود تقييم المخاطر وتطوير آليات حماية إضافية، بينما يتوقع أن تستمر المناقشات حول تنظيم استخدامات الذكاء الاصطناعي في المجالات الحساسة، لا سيما في ظل الحاجة الملحة لتوازن دقيق بين الابتكار والأمن العالمي.

شاركها.