شهد تبني أدوات الذكاء الاصطناعي إجرامياً نمواً هائلاً بلغت نسبته 371%، مما يمثل تحولاً جذرياً في مشهد الجريمة السيبرانية. لم تعد الجريمة الإلكترونية تعتمد على مهارات الأفراد، بل أصبحت صناعة قابلة للتوسع بفضل قدرات الذكاء الاصطناعي المتزايدة. هذا التطور يثير قلقاً متزايداً بشأن الأمن الرقمي ويتطلب استجابة عالمية منسقة.

وفقاً لدميتري فولكوف، الرئيس التنفيذي لشركة «غروب آي بي»، فإن الذكاء الاصطناعي أزال العقبات التي كانت تعيق نمو الجريمة السيبرانية. في الماضي، كان التقدم يعتمد على قدرة المجرمين على كتابة الشيفرات أو التلاعب بالضحايا، أما الآن، فيقوم الذكاء الاصطناعي بهذه المهام بشكل أسرع وأكثر كفاءة وعلى نطاق أوسع بكثير.

التحول من المهارات البشرية إلى التوسع الآلي في الجريمة السيبرانية

تقليدياً، كانت الجريمة السيبرانية تعتمد على خبرات متخصصة تتطلب وقتاً وخبرة وتنسيقاً. تطوير البرمجيات الخبيثة، وصياغة رسائل التصيد الاحتيالي، وتنفيذ هجمات الهندسة الاجتماعية، كانت جميعها مهاماً معقدة. ومع ذلك، فإن الذكاء الاصطناعي قد أزال هذه القيود، مما سمح حتى للمجرمين الأقل خبرة بتنفيذ هجمات متطورة.

المهام التي كانت تتطلب جهداً يدوياً، مثل التقمص والإقناع والبرمجة والاستهداف، أصبحت الآن مؤتمتة أو متاحة من خلال أدوات مدعومة بالذكاء الاصطناعي. وقد انعكس هذا بوضوح في منتديات الإنترنت المظلم، حيث رصدت شركة «Group-IB» زيادة كبيرة في النقاشات المتعلقة بالذكاء الاصطناعي.

أظهرت التحليلات أن المنشورات التي تتضمن كلمات مفتاحية مرتبطة بالذكاء الاصطناعي ارتفعت بنسبة 371% بين عامي 2019 و 2025. في عام 2025 وحده، تم تسجيل 23,621 منشوراً أولياً ونحو 298,231 رداً، مما يدل على أن الذكاء الاصطناعي لم يعد مجرد موضوع اهتمام، بل أصبح أداة إجرامية سائدة.

الذكاء الاصطناعي كبنية تحتية للجريمة الرقمية

لا تقتصر الخطورة على استخدام الذكاء الاصطناعي فحسب، بل تمتد إلى تحوله إلى بنية تحتية أساسية للجريمة. في مجالات مثل الاحتيال والهندسة الاجتماعية، أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من العمليات الإجرامية، ولم يعد مجرد خيار بل ضرورة.

الذكاء الاصطناعي يلعب دوراً محورياً في توليد المحتوى، والاستهداف، وانتحال الهوية، والأتمتة. الأدوات المعتمدة عليه تُباع عبر نماذج اشتراك منخفضة التكلفة، مما يزيل حواجز المهارة والمال. هذا يجعل الأدوات المتقدمة في متناول عدد أكبر من المجرمين المحتملين.

الجريمة كخدمة (Crime-as-a-Service)

تتشابه الأسواق الإجرامية اليوم مع شركات البرمجيات السحابية المشروعة. الفاعلون في هذا المجال يركزون على الاحتفاظ بالعملاء، وسهولة الاستخدام، وقابلية التوسع، تماماً مثل الشركات الناشئة. عندما تُعامل الجريمة كمنتج، فإنها تصبح أكثر مرونة واستدامة وأصعب في التعطيل.

الذكاء الاصطناعي خفّض أيضاً مستوى المهارة المطلوب لتنفيذ هجمات متقدمة. بدلاً من الاعتماد على خبراء متخصصين، يمكن للمجرمين الآن الاستفادة من خدمات الذكاء الاصطناعي لتنفيذ مهام معقدة مثل الإقناع والتقليد والبرمجة.

تحديات الهوية والأمن في ظل الذكاء الاصطناعي

يحذر فولكوف من أن أحد أخطر التحولات يتمثل في الهجمات القائمة على الهوية، حيث أصبحت “الهوية قابلة للبرمجة”. يمكن الآن تصنيع الصوت والوجه والوثائق وبيعها، مما يجعل الاحتيال أكثر سهولة وفعالية.

عندما تصبح الهوية سلعة، يتحول الاحتيال من استغلال الأنظمة إلى استغلال الثقة. بالنسبة للمجرمين ذوي الدوافع المالية، تمثل الهوية بوابة إلى البنية المالية، مما يسمح لهم بفتح حسابات مصرفية والوصول إلى أنظمة الدفع وتحويل الأموال المسروقة.

وقد وثقت «Group-IB» حالة ساعدت فيها مؤسسة مالية على رصد 8065 محاولة تجاوز لأنظمة “اعرف عميلك” باستخدام تقنيات التزييف العميق بين يناير وأغسطس 2025، مما أدى إلى اكتشاف 5702 حساب احتيالي. وبعد تطبيق أدوات كشف قائمة على التحليل الاستخباراتي، انخفض النشاط الاحتيالي بشكل ملحوظ.

الفجوة التنظيمية والاستجابة المستقبلية

يشير فولكوف إلى أن التشريعات لم تواكب بعد سرعة التطورات في مجال الذكاء الاصطناعي. التنظيم يتحرك، لكنه غير متسق، والمجرمون يستغلون الفجوات عبر الحدود. لا يزال هناك نقص في القوانين الموحدة القائمة على تقييم المخاطر، على غرار قانون الاتحاد الأوروبي للذكاء الاصطناعي، خاصة فيما يتعلق بالاستخدامات عالية المخاطر مثل انتحال الهوية والاحتيال.

يتطلب التصدي لهذه التحديات الجديدة التوقف عن النظر إلى الجرائم المدفوعة بالذكاء الاصطناعي كحوادث منفصلة، وإدراك أنها نظام مترابط. إن وضع الذكاء الاصطناعي في قلب استراتيجيات الأمن، وتعزيز التعاون الدولي، وتبني دفاعات قائمة على الاستخبارات، بات ضرورة ملحة. من المتوقع أن تشهد الأشهر القادمة نقاشات مكثفة حول تطوير أطر تنظيمية جديدة وتحديث الأنظمة الحالية لمواكبة التهديدات المتطورة.

شاركها.