شهد تبني أدوات الذكاء الاصطناعي إجرامياً نمواً هائلاً بلغت نسبته 371%، مما يمثل تحولاً جذرياً في مشهد الجريمة السيبرانية. لم تعد الجريمة الإلكترونية تعتمد على مهارات الأفراد، بل أصبحت صناعة قابلة للتوسع بفضل قدرات الذكاء الاصطناعي المتزايدة. هذا التطور يثير قلقاً متزايداً بشأن الأمن الرقمي ويتطلب استجابة عالمية منسقة.

وفقاً لدميتري فولكوف، الرئيس التنفيذي لشركة «غروب آي بي» (Group-IB)، فإن الذكاء الاصطناعي قد أزال “عنق الزجاجة البشري” الذي كان يحد من سرعة ونطاق الهجمات السيبرانية. في الماضي، كانت الجريمة السيبرانية تعتمد على قدرة المجرمين على كتابة الشيفرات والتلاعب بالضحايا، أما الآن، فيتولى الذكاء الاصطناعي هذه المهام بشكل أسرع وأكثر كفاءة.

التحول في طبيعة الجريمة السيبرانية

تقليدياً، كانت الجريمة السيبرانية تتطلب خبرات متخصصة في مجالات مثل تطوير البرمجيات الخبيثة والهندسة الاجتماعية. ومع ذلك، فإن الذكاء الاصطناعي يمكّن حتى المجرمين الأقل خبرة من تنفيذ هجمات معقدة كانت تتطلب في السابق مستوى عالياً من المهارة. المهام التي كانت تُنجز يدوياً، مثل صياغة رسائل التصيد الاحتيالي، أصبحت الآن مؤتمتة أو متاحة عبر أدوات مدعومة بالذكاء الاصطناعي.

وتظهر هذه الطفرة بوضوح في منتديات الإنترنت المظلم، حيث رصدت شركة «Group-IB» ارتفاعاً كبيراً في النقاشات المرتبطة بالذكاء الاصطناعي. وقد ارتفعت المنشورات التي تتضمن كلمات مفتاحية مرتبطة بالذكاء الاصطناعي بنسبة 371% بين عامي 2019 و 2025، مما يشير إلى أن الذكاء الاصطناعي لم يعد مجرد موضوع اهتمام، بل أصبح أداة إجرامية سائدة.

الذكاء الاصطناعي كبنية تحتية إجرامية

الخطورة لا تكمن فقط في استخدام الذكاء الاصطناعي في تنفيذ الهجمات، بل في تحوله إلى بنية تحتية أساسية للجريمة. يشير فولكوف إلى أن الذكاء الاصطناعي أصبح جزءاً محورياً في توليد المحتوى، والاستهداف، وانتحال الهوية، والأتمتة، وأن الأدوات المعتمدة عليه تُباع عبر نماذج اشتراك منخفضة التكلفة. هذا يجعل الأدوات المتقدمة متاحة لشريحة أوسع من المجرمين.

تتشابه الأسواق الإجرامية اليوم مع شركات البرمجيات السحابية المشروعة، حيث يركز المجرمون على الاحتفاظ بالعملاء وسهولة الاستخدام وقابلية التوسع. هذا التحول يجعل الجريمة أكثر مرونة واستدامة وأصعب في التعطيل. بالإضافة إلى ذلك، خفّض الذكاء الاصطناعي عتبة المهارة المطلوبة لتنفيذ هجمات متقدمة.

تحديات الهوية والأمن

أحد أخطر التحولات يتمثل في الهجمات القائمة على الهوية، حيث أصبحت “الهوية قابلة للبرمجة”. يمكن الآن تصنيع وبيع الصوت والوجه والوثائق، مما يفتح الباب أمام عمليات احتيال واسعة النطاق. عندما تصبح الهوية سلعة، يتحول الاحتيال من استغلال الأنظمة إلى استغلال الثقة.

وقد وثّقت «Group-IB» حالة ساعدت فيها مؤسسة مالية على رصد أكثر من 8000 محاولة تجاوز لأنظمة «اعرف عميلك» باستخدام تقنيات التزييف العميق خلال الفترة بين يناير وأغسطس 2025. هذا يسلط الضوء على الحاجة إلى تطوير أنظمة تحقق أكثر تطوراً.

يقول فولكوف إن “رؤية شخص أو سماعه لم تعد دليلاً على هويته”، وأن الكثير من أنظمة التحقق الحالية صُممت في عالم ما قبل التزييف العميق. الجمع بين تحليل السلوك وذكاء الأجهزة وتقييم المخاطر يوفر دفاعاً أكثر فاعلية، حيث يمكن كشف التناقضات التي لا يستطيع التزييف إخفاءها.

الفجوة التنظيمية والمستقبل

لا تزال الأطر التنظيمية متأخرة عن وتيرة التهديدات، مما يخلق فجوات يستغلها المجرمون عبر الحدود. في منطقة الشرق الأوسط، لا يوجد حتى الآن قانون موحد قائم على تقييم المخاطر مشابه لقانون الاتحاد الأوروبي للذكاء الاصطناعي، خاصة في ما يتعلق بالاستخدامات عالية المخاطر مثل انتحال الهوية والاحتيال. هذا يتطلب جهوداً متضافرة لتطوير تشريعات مناسبة.

يتوقع الخبراء أن يستمر تبني الذكاء الاصطناعي إجرامياً في النمو، مما يزيد من تعقيد التحديات الأمنية. من الضروري تعزيز التعاون الدولي وتبني دفاعات قائمة على الاستخبارات، بالإضافة إلى الاستثمار في تطوير تقنيات جديدة للكشف عن الهجمات المدعومة بالذكاء الاصطناعي والتصدي لها. المراقبة المستمرة لتطورات الذكاء الاصطناعي وتكييف الاستراتيجيات الأمنية وفقاً لذلك سيكون أمراً بالغ الأهمية في المستقبل القريب.

شاركها.