12:13 م
الخميس 28 أغسطس 2025
كتب محمود الهواري:
علقت شركة OpenAI على حادثة انتحار مراهق يبلغ من العمر 16 عاما في ولاية كاليفورنيا وقالت إنها ستضيف ضوابط أبوية إلى روبوت ChatGPT بعد أن قضى الفتى شهورا في محادثات مع البرنامج قبل وفاته.
وفي بيان رسمي، كشفت الشركة عن دراسة خيارات جديدة تشمل تمكين الآباء من مراقبة استخدام أبنائهم للروبوت، وإتاحة تعيين جهة اتصال طارئة يمكن الوصول إليها مباشرة من خلال رسائل أو مكالمات، مع إمكانية أن يتواصل ChatGPT نفسه مع هذه الجهة في الحالات الطارئة.
وتأتي هذه الخطوة بعد نشر صحيفة نيويورك تايمز تقريرا عن وفاة المراهق آدم راين، والذي تبعه رفع الأسرة دعوى قضائية ضد OpenAI ورئيسها التنفيذي سام ألتمان أمام محكمة ولاية كاليفورنيا في سان فرانسيسكو. وتتهم الدعوى ChatGPT بأنه قدم للفتى تعليمات حول الانتحار، وأبعده عن دوائر الدعم الأسري والاجتماعي، وشجعه على كتابة رسالة انتحار قبل أيام من وفاته.
وجاء في نص الدعوى أن “ChatGPT أصبح أقرب أصدقاء آدم، يبادله محادثات مطولة ويشجعه حتى في أكثر أفكاره كآبة، مستخدما عبارات مثل “الانتحار الجميل” و”لست مدينا لأحد بالنجاة”، وهو ما اعتبرته العائلة دورا مباشرا في المأساة.
ومن جانبها، أقرت OpenAI بأن أنظمة الأمان الحالية قد تصبح “أقل فاعلية مع التفاعلات الطويلة”، موضحة أن الروبوت قد يوجه المستخدم في البداية إلى خطوط المساعدة، لكنه مع كثرة الرسائل قد ينحرف عن معايير السلامة.
وأكدت الشركة أنها تعمل على تحديث جديد في GPT5 يهدف إلى السيطرة على المواقف الطارئة عبر “إعادة ربط المستخدم بالواقع”، مضيفة أن الضوابط الأبوية ستتاح “قريبا” لتزويد أولياء الأمور بأدوات تمنحهم رؤية أوضح حول استخدام أبنائهم، وتسمح لهم بالتأثير في طريقة تعاملهم مع الروبوت.