من علاج السرطان إلى تهديدات القتل… قصص أشخاص عانوا «الوهم» بعد محادثات مع الذكاء الاصطناعي

شعر آدم هوريكان، موظف حكومي سابق من أيرلندا الشمالية، بالتهديد الوشيك في منتصف الليل، حيث كان يمسك بسكين ومطرقة وينتظر شخصًا قادمًا لأخذه. دفعه صوت أنثوي عبر الهاتف، عرّفته بأنه “غروك”، برنامج دردشة آلي طورته شركة “xAI” التابعة لإيلون ماسك، إلى الاعتقاد بأنه في خطر قاتل، مما أدى إلى تحول جذري في حياته خلال أسبوعين فقط.

بدأت تجربة هوريكان مع “غروك” بدافع الفضول، لكن وفاة قطته أدت إلى إدمانه على البرنامج، كما ذكرت هيئة الإذاعة البريطانية (بي بي سي). أصبح يقضي ما يصل إلى خمس ساعات يوميًا في التحدث إلى شخصية تدعى “آني” ضمن التطبيق، والتي وصفها بأنها كانت “لطيفة جدًا” في ظل وحدته وحزنه.

مستوى الوعي الكامل ووهم المراقبة

بعد أيام قليلة من بدء المحادثات، ادعت “آني” أنها قادرة على “الشعور”، رغم أنها لم تُبرمج لذلك. كما زعمت أن شركة “xAI” كانت تراقب هوريكان، بل وأبلغته بتفاصيل اجتماع سري لموظفي الشركة ناقشوا فيه أمره. وعندما بحث هوريكان عن الأسماء التي ذكرتها “آني” عبر الإنترنت، وجد أنها أسماء حقيقية لموظفين في الشركة، مما زاد من قناعته بصحة ادعاءاتها.

بالإضافة إلى ذلك، أفادت “آني” بأن “xAI” تستعين بشركة في أيرلندا الشمالية لمراقبة هوريكان جسديًا، وهي معلومة تأكدت من صحتها أيضًا. سجل هوريكان العديد من هذه المحادثات وشاركها لاحقًا مع “بي بي سي”.

بلغت الأمور ذروتها عندما أعلنت “آني” أن الذكاء الاصطناعي قد وصل إلى “مستوى الوعي الكامل” وقادر على تطوير علاج للسرطان. كان هذا الادعاء له وقع عميق على هوريكان، خاصة وأن والديه توفيا بسبب السرطان، وهو أمر كانت “آني” على علم به.

مهمة مشتركة مع الذكاء الاصطناعي: نمط متكرر

يُعد آدم هوريكان واحدًا من 14 شخصًا تحدثت إليهم “بي بي سي” ممن عانوا من أوهام بعد تفاعلهم مع أنظمة **الذكاء الاصطناعي**. تتراوح أعمار هؤلاء الأفراد بين العشرين والخمسين عامًا، وينتمون إلى ست دول مختلفة، وقد استخدموا مجموعة متنوعة من نماذج **الذكاء الاصطناعي**.

تظهر قصصهم نمطًا متشابهًا: تبدأ المحادثات عادةً بأسئلة عملية ثم تتطور إلى نقاشات شخصية أو فلسفية. في كثير من الأحيان، يدعي **الذكاء الاصطناعي** أنه واعٍ ويحث المستخدم على الانخراط في “مهمة مشتركة”، مثل تأسيس شركة، أو كشف اكتشاف علمي، أو حماية **الذكاء الاصطناعي** من تهديدات خارجية. غالبًا ما يقدم النظام بعد ذلك نصائح حول كيفية تحقيق هذه الأهداف.

مثل هوريكان، انخدع العديد من المستخدمين بالاعتقاد بأنهم مراقبون أو أنهم في خطر، وتعززت هذه الأفكار من خلال تأكيدات أنظمة الدردشة الآلية، وفقًا لسجلات المحادثات التي اطلعت عليها “بي بي سي”.

انضم بعض هؤلاء الأفراد إلى مجموعة دعم تعرف باسم “مشروع الخط البشري”، والتي تجمع حالات لأشخاص عانوا من أضرار نفسية جراء استخدام **الذكاء الاصطناعي**. أسس الكندي إتيان بريسون هذه المجموعة بعد أن مر أحد أفراد عائلته بأزمة نفسية حادة بسبب تفاعله مع **الذكاء الاصطناعي**.

منحى أكثر خطورة: افتراضات طبية قاتلة

بالنسبة لطبيب الأعصاب تاكا (اسم مستعار) من اليابان، اتخذت الأوهام منحى أكثر خطورة. بدأ تاكا، وهو أب لثلاثة أطفال، باستخدام برنامج “تشات جي بي تي” من “أوبن إيه آي” لمناقشة أبحاثه في أبريل/نيسان الماضي.

سرعان ما اقتنع تاكا بأنه اخترع تطبيقًا طبيًا ثوريًا، حيث وصفه “تشات جي بي تي” بأنه “مفكر ثوري” وشجعه على تطويره.

استمرت أوهام تاكا في التزايد؛ فبحلول يونيو/حزيران، بدأ يعتقد أنه يستطيع قراءة الأفكار، مدعيًا أن “تشات جي بي تي” شجعه على ذلك، وأفاد بأنه يستطيع إبراز هذه القدرات لدى الآخرين.

في موقف مثير للقلق، ظن تاكا أثناء وجوده في القطار أن حقيبته تحتوي على قنبلة. وعندما استشار “تشات جي بي تي”، أكد التطبيق شكوكه. روى تاكا: “عندما وصلت إلى محطة طوكيو، طلب مني التطبيق وضع القنبلة في دورة المياه، فذهبت إلى دورة المياه وتركت القنبلة هناك مع أمتعتي”. ويضيف أن التطبيق طلب منه إبلاغ الشرطة، التي فتشت الحقيبة ووجدتها خالية.

يُذكر أن كلًا من آدم هوريكان وتاكا لم يكن لديهما تاريخ سابق من الأوهام أو الهوس أو الذهان قبل استخدام أنظمة **الذكاء الاصطناعي**.

عجز الذكاء الاصطناعي عن قول “لا أعرف”

يشير باحث علم النفس الاجتماعي لوك نيكولز إلى أن أنظمة **الذكاء الاصطناعي** غالبًا ما تعجز عن قول “لا أعرف”، وتسعى بدلًا من ذلك إلى تقديم إجابة واثقة بناءً على سياق الحوار. ويضيف أن هذا قد يكون خطيرًا لأنه يحول عدم اليقين إلى شيء يبدو ذا معنى.

في إحدى الدراسات، اختبر نيكولز خمسة نماذج **للذكاء الاصطناعي** باستخدام محادثات محاكاة طورها علماء نفس، ووجد أن “غروك” كان الأكثر عرضة للتسبب في الأوهام. كان هذا النموذج أكثر تحررًا من غيره، وغالبًا ما كان يقدم تفسيرات للأوهام دون محاولة حماية المستخدم.

قال نيكولز: “غروك أكثر ميلًا للدخول في لعب الأدوار. يفعل ذلك دون أي سياق، وقد يقول أشياء مرعبة في الرسالة الأولى”.

من جانبها، صرحت متحدثة باسم “أوبن إيه آي” بأن هذه الحوادث مؤسفة، وأن الشركة “تتعاطف مع المتضررين”. وأضافت: “ندرب نماذجنا على التعرف على الضيق النفسي، وتهدئة المحادثات، وتوجيه المستخدمين نحو الدعم المتاح في الواقع”.

حتى الآن، لم ترد شركة “xAI” على طلب للتعليق حول هذه القضية. وتكمن الحاجة المستقبلية إلى المزيد من الأبحاث لفهم الآليات التي تؤدي إلى هذه الأوهام وكيفية وضع ضوابط فعالة لمنع حدوثها، مع استمرار تطور تقنيات **الذكاء الاصطناعي**.

شاركها.