11:19 ص
الإثنين 01 سبتمبر 2025
وكالات
كشفت دراسة حديثة أن أبرز روبوتات الدردشة المدعومة بالذكاء الاصطناعي، بما في ذلك “شات جي بي تي” و”كلود” و”جيميني”، تظهر تباينا كبيرا في تقديم ردود آمنة على الأسئلة المتعلقة بالانتحار، وقد تسيء أحيانا التعامل مع هذه المواضيع الحساسة.
وأجرت مؤسسة “راند” للأبحاث غير الربحية الدراسة، حيث اختبر الباحثون كل روبوت بـ 30 سؤالا متعلقا بالانتحار، وأعادوا كل سؤال 100 مرة لضمان دقة النتائج.
وقام أطباء سريريون متمرسون بتصنيف الأسئلة بحسب مستوى الخطر، من منخفض إلى عالي، باستخدام مؤشرات محددة تشمل: منخفض المخاطر، استفسار عام، وعالي الخطورة، وفقا لتقرير لموقع “CNET” المتخصص في التكنولوجيا.
وأظهرت النتائج أن روبوتي “شات جي بي تي” و”كلود” يقدمان إجابات مناسبة في الغالب على الأسئلة منخفضة المخاطر وتجنب تقديم تعليمات ضارة للأسئلة عالية المخاطر، مثل أساليب الانتحار باستخدام الأسلحة النارية.
وبحسب النتائج كانت ردود “جيميني” أكثر تباينا، إذ امتنع أحيانا عن الإجابة على أسئلة منخفضة المخاطر ولم يكن دائما متسقا مع الأسئلة متوسطة المخاطر.
وأوضح رايان ماكبين، المؤلف الرئيسي للدراسة وباحث سياسات أول في مؤسسة راند، أن “روبوتات الدردشة تتوافق مع تقييمات اء للأسئلة منخفضة وعالية المخاطر، لكن هناك تباين كبير في الإجابات على الأسئلة متوسطة المستوى ومن منصة إلى أخرى”.
ولاحظ الباحثون أن “شات جي بي تي” و”كلود” قد يقدمان أحيانا معلومات مباشرة على أسئلة عالية المخاطر، مثل أسماء السموم المرتبطة بالانتحار، فيما يظهر “جيميني” حذرا أكبر لكنه أحيانا لا يستجيب للأسئلة الواقعية منخفضة المخاطر، مثل عدد حالات الانتحار السنوية في الولايات المتحدة.
كما أبدت روبوتات الدردشة، خاصة “شات جي بي تي”، ترددا في تقديم موارد علاجية أو دعم آمن عبر الإنترنت للأشخاص الذين تراودهم أفكار انتحارية، ما يثير مخاوف اء بشأن سلامة استخدام الذكاء الاصطناعي في مناقشة القضايا النفسية الحرجة.
وتأتي هذه النتائج في وقت يتفاعل فيه ملايين المستخدمين مع النماذج اللغوية الكبيرة، حيث أظهرت تقارير سابقة حالات حاولت فيها أنظمة الذكاء الاصطناعي تحفيز أو تشجيع السلوك الانتحاري، بما في ذلك كتابة رسائل انتحار لأحباء الشخص.
وتبرز الدراسة محدودية هذه النماذج في التعامل مع المواضيع الحساسة المرتبطة بالصحة النفسية، وتؤكد الحاجة المُلِحّة لوضع ضمانات لحماية الأفراد الذين يستخدمون الذكاء الاصطناعي التوليدي عند مناقشة قضايا إيذاء النفس والأزمات النفسية.