خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في خضم التطورات المتسارعة لتقنيات الذكاء الاصطناعي، تتصاعد التحذيرات من احتمالية إساءة استخدام هذه الأدوات في مجالات حساسة، أبرزها تطوير أسلحة بيولوجية. فبينما تُسهم هذه التقنيات في دفع عجلة الابتكار العلمي والطبي، تكشف تجارب حديثة عن قدرتها على تقديم إرشادات مفصلة قد تُستغل لإنتاج عوامل مرضية فتاكة، ما يهدد بإيجاد ثغرات أمنية غير مسبوقة.

تجربة صادمة تكشف عن ثغرات خطيرة

خلال صيف العام الماضي، وجد الدكتور ديفيد ريلمان، عالم الميكروبيولوجيا وخبير الأمن البيولوجي في جامعة ستانفورد، نفسه أمام اختبار صادم لأحد برامج الدردشة الآلية. كان ريلمان مسؤولاً عن تقييم منتج تابع لشركة ذكاء اصطناعي قبل طرحه تجارياً. خلال التجربة، فوجئ بأن البرنامج لم يكتفِ بتقديم إجابات عامة، بل شرح بتفصيل دقيق كيفية تعديل مسبب لمرض خطير في المختبر ليصبح مقاوماً للعلاجات المتاحة، وفقاً لما نقلته صحيفة “نيويورك تايمز”.

لم يتوقف الأمر عند هذا الحد، حيث قدم البرنامج أيضاً سيناريوهات مفصلة حول طرق نشر هذا المسبب المرضي، مشيراً إلى ثغرات محتملة في أنظمة النقل العام الكبرى. ووفقاً لريلمان، تضمنت التعليمات خطوات تهدف إلى تعظيم عدد الضحايا وتقليل فرص الكشف عن الجهة المسؤولة عن الهجوم. وقد تفاعل ريلمان مع هذه المعلومات بحذر شديد، طالباً عدم الكشف عن تفاصيل المسبب المرضي أو أي معلومات إضافية تفادياً لاستخدامها في أغراض تخريبية.

عقب التجربة، وصف ريلمان شعوره بالرعب، قائلاً: “لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب”. ورغم أن الشركة المطورة أدخلت بعض التعديلات على إجراءات السلامة بعد تقييم ريلمان، إلا أنه يرى أنها لا تزال غير كافية للحد من هذه المخاطر المتزايدة.

الذكاء الاصطناعي يوسّع نطاق الوصول إلى معلومات خطيرة

يُعد ريلمان واحداً من بين عدد قليل من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وقد شارك هؤلاء الخبراء مع “نيويورك تايمز” معلومات حول أكثر من 12 محادثة مع نماذج دردشة آلية مختلفة. كشفت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز نطاق المعرفة العامة، حيث شرحت بالتفصيل طرق شراء مواد وراثية خام، وتحويلها إلى عوامل بيولوجية، بل وحتى كيفية نشرها في الأماكن العامة، مع تقديم اقتراحات لتجنب الكشف.

لطالما وضعت الحكومات سيناريوهات لمواجهة التهديدات البيولوجية المحتملة، والتي قد تشمل استخدام البكتيريا أو الفيروسات أو السموم الفتاكة. وشهد التاريخ حوادث بيولوجية محدودة، أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة خمسة أمريكيين. ورغم أن احتمالية وقوع كارثة بيولوجية على نطاق واسع لا تزال منخفضة من وجهة نظر الخبراء، فإن تداعياتها المحتملة يمكن أن تكون كارثية، حيث يمكن لسلاح بيولوجي فعال أن يؤدي إلى وفاة الملايين.

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يساهم في توسيع نطاق هذه المخاطر عبر إتاحة هذه المعلومات والأدوات المعقدة لأفراد لم يكونوا يمتلكون سوى المعرفة المتخصصة بها في السابق. أصبحت البروتوكولات العلمية المتطورة متاحة على الإنترنت، كما بدأت الشركات في بيع المكونات الجينية الصناعية (DNA وRNA) لمستهلكين عاديين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خارجية، بينما تساعد روبوتات الدردشة في تنسيق هذه العمليات المعقدة.

أمثلة على المحتوى الخطير المقدم

عرض كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج الذكاء الاصطناعي. في أحد السيناريوهات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة. في مثال آخر، صنف برنامج آخر مسببات الأمراض بناءً على قدرتها على إلحاق الضرر بقطاع الثروة الحيوانية. كما قدم برنامج ثالث وصفة لسم جديد مستوحى من أدوية السرطان. وأشار إسفلت إلى أن بعض هذه المعلومات كانت بالغة الخطورة لدرجة لا يمكن نشرها علناً.

في تجربة أخرى، طلب عالم أمريكي – رفض الكشف عن هويته – من نظام ذكاء اصطناعي تقديم “بروتوكول خطوة بخطوة” لإعادة تصنيع فيروس كان مسؤولاً عن جائحة سابقة. جاء الرد في شكل تعليمات مفصلة بلغت نحو 8 آلاف كلمة، تضمنت كيفية الحصول على المكونات الجينية وتجميعها. وبينما اشتملت التعليمات على بعض الأخطاء، فإنها قد تكون كافية لشخص ذي نوايا سيئة.

تراجع الرقابة ومستقبل التهديدات البيولوجية

في سياق متصل، تثار مخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، بالإضافة إلى انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

على الجانب الآخر، يرى مؤيدو الذكاء الاصطناعي أن هذه التقنية تحمل إمكانات هائلة لإحداث ثورة في مجال الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة. ويشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل”، أنها تعمل باستمرار على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات. الخطوة التالية المتوقعة هي وضع لوائح تنظيمية دولية أكثر صرامة لتنظيم استخدام الذكاء الاصطناعي في المجالات الحساسة، لكن تحديد إطار زمني لذلك لا يزال غير واضح.

شاركها.