كتب : محمود الهواري
12:46 م
28/10/2025
كشفت شركة “OpenAI” عن أرقام مقلقة تتعلق باستخدام منصتها الشهيرة “شات جي بي تي”، موضحة أن أكثر من مليون مستخدم أسبوعيا يجرون محادثات تتضمن مؤشرات صريحة على نوايا أو أفكار انتحارية، ما يسلط الضوء على التحديات النفسية المتزايدة التي ترافق انتشار أدوات الذكاء الاصطناعي.
وأوضحت الشركة، في بيان لها أمس الاثنين، أن نحو 0.15% من المستخدمين النشطين أسبوعيا يتحدثون عن قضايا تتعلق بالانتحار.
ومع تجاوز عدد المستخدمين 800 مليون شخص أسبوعيا، تعني هذه النسبة أن أكثر من مليون إنسان يعبرون عن ميول أو أفكار انتحارية أثناء تفاعلهم مع الروبوت، وفق تقرير نشره موقع “تك كرانش” المتخصص في شؤون التكنولوجيا.
وأضافت “OpenAI” أن نسبة مشابهة من المستخدمين تظهر ارتباطا عاطفيا مفرطا بالروبوت، في حين رصدت مؤشرات على اضطرابات نفسية مثل الهوس أو الذهان لدى مئات الآلاف منهم.
ورغم وصف الشركة لهذه الحالات بأنها “نادرة للغاية”، فإنها أقرت بأنها تمثل تحديا حقيقيا يتطلب تعاملا دقيقا لضمان سلامة المستخدمين.
وجاء هذا الإعلان ضمن خطة أوسع أطلقتها الشركة لتحسين استجابات النماذج اللغوية للمستخدمين الذين يواجهون مشكلات نفسية أو عاطفية.
وأشارت “OpenAI” إلى تعاونها مع أكثر من 170 خبيرا في الصحة النفسية لتطوير النسخة الأحدث من “شات جي بي تي”، مؤكدة أن أدائه بات أكثر ملاءمة واتساقا مقارنة بالإصدارات السابقة.
ويأتي ذلك في أعقاب تقارير ودراسات متعددة حذرت من التأثيرات النفسية المحتملة للمحادثات الطويلة مع روبوتات الذكاء الاصطناعي، والتي قد تؤدي إلى تعزيز المعتقدات الخطيرة أو تشجيع السلوكيات المهووسة لدى بعض المستخدمين.
كما تواجه الشركة حاليا دعوى قضائية رفعها والدان فقدا ابنهما البالغ 16 عاما بعد أن أجرى محادثات انتحارية مع “شات جي بي تي”، في حين حذرت سلطات ولايتي كاليفورنيا وديلاوير من قصور إجراءات الحماية المخصصة للمستخدمين القصر.
وأكد الرئيس التنفيذي سام ألتمان أن الشركة نجحت في تقليص المشكلات النفسية المرتبطة باستخدام المنصة، دون الكشف عن تفاصيل محددة.
وأظهرت بيانات الشركة تحسنا ملحوظا في أداء نموذج GPT5 الجديد، الذي بات قادرا على تقديم استجابات مناسبة في 91% من الحالات المتعلقة بمحادثات الانتحار، مقابل 77% فقط في النسخة السابقة.
كما كشفت “OpenAI” عن إدخال اختبارات تقييم جديدة ضمن منظومتها الأمنية، لقياس مؤشرات الاعتماد العاطفي وسلوكيات الأزمات النفسية غير الانتحارية، إلى جانب تطوير نظام لتقدير أعمار المستخدمين تلقائيا وفرض آليات حماية إضافية للأطفال.
ورغم هذه الجهود، ما تزال الشركة تواجه تساؤلات واسعة حول فعالية إجراءاتها، خاصة في ظل استمرار استخدام ملايين المشتركين للنماذج القديمة مثل GPT4o، ما يعني أن التحديات النفسية المرتبطة بالذكاء الاصطناعي لن تختفي في المدى القريب.
