أبرزها تزوير الانتخابات.. 3 إنجازات مخيفة سيحققها الذكاء الا
03:05 م
الإثنين 01 يناير 2024
كان الذكاء الاصطناعي موجودًا منذ عقود، ولكن العام 2023، كان بمثابة انطلاقة لهذه التكنولوجيا المخيفة، وأنشأ ChatGPT من تطوير شركة OpenAI ذكاءً اصطناعيًا عمليًا يسهل وصول الجماهير إليه. ومع ذلك، فإن الذكاء الاصطناعي له تاريخ متقلب، والتكنولوجيا اليوم سبقها سجل قصير من التجارب الفاشلة.
في أغلب الأحيان، يبدو أن الابتكارات في مجال الذكاء الاصطناعي مهيأة لتحسين أشياء مثل التشخيص الطبي والاكتشاف العلمي.
ولكن ليس كل الابتكارات حميدا، وأكبر دليل على ذلك الطائرات بدون طيار القاتلة، والذكاء الاصطناعي الذي يهدد مستقبل البشرية، إليك بعض من أكثر اختراقات الذكاء الاصطناعي رعبًا والتي قد تحدث في عام 2024، وفقا لموقع مجلة لايف ساينس.
عصر الذكاء الاصطناعي العام (AGI)
لا نعرف بالضبط سبب إقالة سام ألتمان، الرئيس التنفيذي لشركة OpenAI، وإعادته إلى منصبه في أواخر عام 2023. ولكن وسط الفوضى في الشركة، انتشرت شائعات حول تقنية متقدمة يمكن أن تهدد مستقبل البشرية. وذكرت رويترز أن نظام OpenAI هذا، المسمى Q* (Qstar)، قد يجسد الإدراك الرائد المحتمل للذكاء العام الاصطناعي (AGI). لا يُعرف سوى القليل عن هذا النظام الغامض، ولكن إذا كانت التقارير صحيحة، فقد يؤدي ذلك إلى رفع قدرات الذكاء الاصطناعي عدة مرات.
الذكاء الاصطناعي العام (AGI) هو نقطة تحول افتراضية، تُعرف أيضًا باسم “التفرد”، حيث يصبح الذكاء الاصطناعي أكثر ذكاءً من البشر. لا تزال الأجيال الحالية من الذكاء الاصطناعي متخلفة في المجالات التي يتفوق فيها البشر، مثل التفكير القائم على السياق والإبداع الحقيقي. معظم المحتوى الذي ينشئه الذكاء الاصطناعي، إن لم يكن كله، ليس سوى اجترار، بطريقة ما، البيانات المستخدمة لتدريبه.
لكن العلماء يقولون إن الذكاء الاصطناعي العام قد يؤدي وظائف معينة بشكل أفضل من معظم الناس. ويمكن أيضًا تسليحها واستخدامها، على سبيل المثال، لإنشاء مسببات الأمراض المحسنة، أو شن هجمات إلكترونية ضخمة، أو تنسيق التلاعب الجماعي.
وظلت فكرة الذكاء الاصطناعي العام مقتصرة منذ فترة طويلة على الخيال العلمي، ويعتقد العديد من العلماء أننا لن نصل أبدًا إلى هذه النقطة. من المؤكد أن وصول OpenAI إلى نقطة التحول هذه سيكون بمثابة صدمة، ولكن ليس خارج نطاق الاحتمالات.
نحن نعلم، على سبيل المثال، أن سام ألتمان كان بالفعل يضع الأساس لـ AGI في فبراير 2023. نحن نعلم أيضًا أن اء بدأوا يتوقعون حدوث اختراق وشيك، بما في ذلك الرئيس التنفيذي لشركة نيفيديا، الذي قال في نوفمبر إن الذكاء الاصطناعي العام (AGI) سيكون في متناول اليد خلال السنوات الخمس المقبلة.
تزوير الانتخابات.. التزييف العميق الواقعي
أحد التهديدات السيبرانية الأكثر إلحاحًا هو التزييف العميق للصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص قد تؤذيهم. لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا، لكن هذا قد يكون على وشك التغيير.
يمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة في الوقت الحقيقي أي بث فيديو مباشر، بعبارة أخرى وقد أصبح الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الناس لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف.
وهذا من شأنه أن يجعل من المستحيل عمليا التمييز بين الحقيقة والخيال بالعين المجردة.
ومع نضوج الذكاء الاصطناعي، فإن أحد الاحتمالات المخيفة هو أن يتمكن الناس من نشر التزييف العميق لمحاولة التأثير على الانتخابات مثلا.
وبينما تستعد الولايات المتحدة لإجراء الانتخابات الرئاسية في نوفمبر 2024، هناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم. على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية، وذكرت شبكة إن بي سي نيوز أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.
الروبوتات القاتلة التي تعمل بالذكاء الاصطناعي
تعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في الأسلحة. وأعلنت الحكومة الأمريكية في 22 نوفمبر الماضي أن 47 ولاية أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي في فبراير. لماذا كانت هناك حاجة لمثل هذا الإعلان؟ لأن الاستخدام “غير المسؤول” هو احتمال حقيقي ومرعب. لقد رأينا، على سبيل المثال، طائرات بدون طيار تعمل بالذكاء الاصطناعي تطارد جنودًا في ليبيا دون تدخل بشري.
يستطيع الذكاء الاصطناعي التعرف على الأنماط، والتعلم الذاتي، والتنبؤ أو إصدار توصيات في السياقات العسكرية، وقد بدأ بالفعل سباق تسلح للذكاء الاصطناعي.
في عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير.
في عام 2022، على سبيل المثال، أنتج الذكاء الاصطناعي 40 ألف سلاح كيميائي افتراضي جديد. طلبت فروع مختلفة من الجيش الأمريكي طائرات بدون طيار يمكنها التعرف على الأهداف وتتبع المعارك بشكل أفضل من البشر. واستخدمت إسرائيل أيضًا الذكاء الاصطناعي لتحديد الأهداف بسرعة أسرع بـ 50 مرة على الأقل من قدرة البشر في الحرب الأخيرة بين إسرائيل والفلسطينيين، وفقًا لـ NPR.
لكن أحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) أو الروبوتات القاتلة. وحذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينج في عام 2015 وإيلون ماسك في عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع.
ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة.
على سبيل المثال، في أوكرانيا، زُعم أن روسيا نشرت طائرة Zala KYBUAV بدون طيار، يمكنها التعرف على الأهداف ومهاجمتها دون تدخل بشري، وفقًا لتقرير صادر عن نشرة علماء الذرة. وطورت أستراليا أيضًا Ghost Shark، وهو نظام غواصة مستقلة من المقرر إنتاجه “على نطاق واسع”، وفقًا لما ذكرته مجلة Australia Financial Review.
ويعد المبلغ الذي تنفقه الدول حول العالم على الذكاء الاصطناعي مؤشرًا أيضًا، حيث رفعت الصين إنفاق الذكاء الاصطناعي بشكل كبير وفقًا لما ذكرته رويترز. وأضافت أن السبب في ذلك أن الصين تخوض سباقًا مع الولايات المتحدة لنشر أنظمة الأسلحة الفتاكة ذاتية التشغيل. تشير هذه التطورات مجتمعة إلى أننا ندخل فجرًا جديدًا في حرب الذكاء الاصطناعي.