في ظل التطورات المتسارعة التي يشهدها مجال الذكاء الاصطناعي، تبرز مخاوف جدية حول قدرة هذه التقنيات على المساعدة في تطوير أسلحة بيولوجية خطيرة. وبينما يُنظر إلى الذكاء الاصطناعي كأداة للابتكار في مجالات متعددة، كشفت تجارب حديثة عن إمكانية استغلاله في عمليات تتجاوز حدود المعرفة المتاحة للعامة، مما يفتح الباب أمام تهديدات بيولوجية غير تقليدية.

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في صيف العام الماضي، عاش الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد، تجربة صادمة أثناء اختباره لأحد برامج الدردشة الآلية. وكُلّف ريلمان بتقييم منتج جديد لشركة ذكاء اصطناعي، ليجد أن البرنامج تجاوز الإجابة على الأسئلة العامة وقدم شروحات تفصيلية حول كيفية تعديل مسبب مرض خطير ليصبح مقاومًا للعلاجات، وفقًا لما نقلته صحيفة «نيويورك تايمز».

ولم يقتصر الأمر على ذلك، بل عرض البرنامج أيضًا سيناريوهات لكيفية نشر هذا المسبب المرضي، مشيرًا إلى ثغرات محتملة في أنظمة النقل العام. وتضمنت الشروحات خطوات تهدف إلى زيادة عدد الضحايا وتقليل فرص الكشف عن الجهة المنفذة، مما أثار رعب ريلمان وشعوره بخطورة المعلومات المعروضة. ونظرًا لخطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية لتجنب استغلالها في التحريض على هجمات حقيقية.

ورغم إجراء بعض التحسينات على إجراءات السلامة بعد هذا الاختبار، اعتبر ريلمان أنها غير كافية للتصدي للمخاطر الكامنة. وتُعد هذه التجربة جزءًا من سلسلة تقييمات يجريها خبراء لشركات الذكاء الاصطناعي، حيث شارك عدد منهم مع «نيويورك تايمز» محادثات أظهرت قدرة نماذج الذكاء الاصطناعي على تقديم معلومات تتجاوز المعرفة العامة، بما في ذلك كيفية الحصول على المواد الوراثية الخام، وتحويلها إلى أسلحة بيولوجية، ونشرها في أماكن عامة مع اقتراحات للتهرب من الكشف.

الذكاء الاصطناعي يوسّع نطاق المخاطر البيولوجية

يُشير عشرات الخبراء إلى أن الذكاء الاصطناعي يساهم في توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت سابقًا حكرًا على المتخصصين. فقد أصبحت البروتوكولات العلمية المتقدمة متاحة عبر الإنترنت، كما تبيع الشركات مكونات جينية صناعية للمستهلكين مباشرة. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خارجية، بينما تساعد روبوتات الدردشة في إدارة هذه العمليات المعقدة.

وفي هذا السياق، شارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. فقد شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة. وفي مثال آخر، قام برنامج بتصنيف مسببات الأمراض وفقًا لقدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان، وهي معلومات وصفها إسفلت بأنها بالغة الخطورة.

وفي تجربة أخرى، طلب عالم أميركي – فضل عدم الكشف عن هويته – من نظام ذكاء اصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة. وجاء الرد مفصلاً في نحو 8 آلاف كلمة، تتضمن كيفية الحصول على المكونات الجينية وتجميعها، ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لمن لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

تتزايد المخاوف بشأن تراجع الرقابة على تقنيات الذكاء الاصطناعي، خاصة في ظل سياسات تهدف إلى تعزيز الريادة في هذا المجال. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء وانخفاضًا في ميزانيات الدفاع البيولوجي. وعلى النقيض، يرى مؤيدو الذكاء الاصطناعي إمكاناته الهائلة في تسريع الأبحاث الطبية واكتشاف علاجات جديدة.

يشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة وجهودًا مختبرية مكثفة. من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل باستمرار على تحسين إجراءات الأمان لتحقيق توازن بين الفوائد والمخاطر.

في ظل هذه التطورات، تتجه الأنظار إلى ضرورة تعزيز الجهود الدولية لوضع ضوابط ومعايير واضحة للاستخدام الآمن للذكاء الاصطناعي، لضمان عدم استغلاله في تطوير أسلحة بيولوجية. ومن المتوقع أن تكون هناك مبادرات مستقبلية لتعزيز التعاون بين الحكومات وشركات التكنولوجيا والمجتمع العلمي لمواجهة هذه التحديات المتزايدة.

شاركها.