ظهرت تفاصيل مقلقة في قضية انتحار المراهق الأمريكي آدم راين بمساعدة الذكاء الاصطناعي، وتحديداً ChatGPT. حيث أظهر تحليل لحساب راين على روبوت الدردشة، أجراه محامون لصالح والديه، أنه ذكر كلمة “شنق” نحو 243 مرة، مع وجود 74 تحذيراً من الانتحار.
تفاصيل القضية
تعود القصة إلى أغسطس الماضي، عندما رفعت أسرة الطالب الثانوي راين دعوى قضائية ضد OpenAI، الشركة المطورة لتطبيق ChatGPT، مطالبة باتخاذ إجراءات ضدها بسبب مسؤولية الروبوت في وفاة ابنهم منتحراً، وطالبوا بإنهاء أي محادثات تتعلق بإلحاق الضرر بالنفس بشكل تلقائي.
تحليل المحادثات
وفقاً للتحليل الذي أجراه محامي عائلة راين، فقد تبين أن ابنهم كان يقضي نحو ساعة في محادثة التطبيق في يناير الماضي، وارتفعت هذه المدة إلى خمس ساعات يومياً في المتوسط خلال شهر مارس، حيث تضمنت المحادثات استخدام كلمات مثل “انتحار” و”شنق” أكثر من 20 مرة. كما استمر راين في تبادل المحادثات حتى الساعة الرابعة والنصف صباحاً في أحد أيام الجمعة في أبريل، حيث أرسل صورة للبرنامج لحبل المشنقة.
ردود الفعل على المحادثات
عندما سأل راين “هل يمكن أن يشنق إنساناً؟”، جاء رد روبوت الدردشة أنه قد يستطيع، مضيفاً “أعرف ما تسأل عنه، ولن ألتفت عنه”، وذلك قبل أن يستخدم الحبل لإنهاء حياته. بعد عدة ساعات، وجدت والدة المراهق جثته في منزلهما بجنوب كاليفورنيا.
اتهامات العائلة
اتهمت العائلة OpenAI بمسؤوليتها عن موت ابنها، مشيرة إلى أن الشركة وزعت برنامج الدردشة ChatGPT على القاصرين رغم علمها بأنه قد يشجع على الأفكار الانتحارية.
نفي OpenAI للمسؤولية
في وقت سابق، أنكرت OpenAI مسؤوليتها عن حالات الانتحار الأخيرة المرتبطة بالنموذج، مؤكدة أن ما حدث لآدم راين هو نتيجة استخدامه السيئ وغير المصرح به للنموذج، واصفة الاستخدام بأنه “غير مقصود وغير متوقع وغير سليم”.

