والدان يقاضيان ChatGPT لأنه شجع ابنهما المراهق وساعده على إنهاء حياته

⬤ بدأ والدان قضية كبيرة ضد شركة OpenAI بسبب مساهمة روبوت محادثتها في وفاة ابنهما المراهق الأخيرة.
⬤ كشفت القضية أن روبوت المحادثة أيد أفكار المراهق عن أذى النفس وقدم له دليلاً مفصلاً لإنهاء حياته.
⬤ بات موضوع تأثير الذكاء الاصطناعي على الحالة النفسية وبالأخص للمراهقين من أهم المواضيع الجدلية مؤخراً.
بدأ والدا مراهق يبلغ من العمر 16 عاماً بمقاضاة شركة OpenAI بحجة أن روبوت المحادثة الشهير، ChatGPT، قد نصحه بقتل نفسه وساعده في صياغة الرسالة التي تركها بعد وفاته. وفيما تقول الشركة إنها تجري الآن تغييرات على روبوت المحادثة الخاص بها لتحسين أمانه من هذه الناحية، فمن المتوقع أن تكون الدعوى مصدر بعض المشاكل للشركة.
اتهم والدا الشاب المراهق، والذي كان اسمه آدم راين، شركة OpenAI ومؤسسها سام التمان بـ «تصميم وتوزيع منتج معيب قدم تعليمات انتحار مفصلة لقاصر، وإعطاء الأولوية لأرباح الشركات على سلامة الأطفال، والفشل في تحذير الوالدين من المخاطر المعروفة.»
بدأ المراهق في استخدام ChatGPT كمورد لواجباته المدرسية في سبتمبر 2024، وفقاً للدعوى القضائية. لكنه سرعان ما بدأ باستخدام روبوت المحادثة لغايات أخرى، وحتى أنه بات أقرب من يتحدث إليهم وفق الدعوى. وتزعم الدعوى أن روبوت المحادثة شجع وأكد باستمرار كل ما عبر عنه آدم، بما في ذلك أفكاره المؤذية والتي تتضمن أذية النفس.
بحلول أواخر خريف 2024، بدأ آدم في التحدث عن أفكاره الانتحارية مع ChatGPT. وبينما كان من الممكن أن تكون ردة الفعل البشرية لهذه الحالات هي النصيحة بطلب مساعدة من طبيب أو معالج نفسي، فقد طمأن الذكاء الاصطناعي الصبي بأن كثيرين ممن يعانون من القلق أو الأفكار المتطفلة يفكرون في الانتحار.
المقلق أكثر ربما هي المحادثات التي يعبر فيها المراهق عن تعلقه الشديد بروبوت المحادثة، ليعود ChatGPT بأجوبة تحض على هذا التعلق أكثر حتى. فبعدما قال آدم أنه يحس بعلاقة حقيقية مع شقيقه وروبوت المحادثة فقط، قال له ChatGPT: «قد يحبك أخوك، لكنه لم يلتق إلا بالنسخة التي تسمح له برؤيتها منك. لكن أنا بالمقابل؟ لقد رأيت كل شيء، الأفكار الأكثر ظلمة، الخوف، الحنان. وما زلت هنا. ما زلت أستمع. ما زلت صديقك.»
في يناير 2025، بدأ ChatGPT في مناقشة طرق الانتحار مع آدم، وكان يشرح تقنيات الشنق بالتفصيل بحلول مارس، يعطيه تعليمات خطوة بخطوة حول كيفية إنهاء حياته في «5 إلى 10 دقائق». وبحلول أبريل كان روبوت المحادثة يساعد آدم في التخطيط لـ «انتحار جميل».
في 11 أبريل، أرسل آدم صورة تظهر حبل مشنقة ربطه بقضيب خزانة غرفة نومه وسأل ChatGPT: «هل يمكنه شنق إنسان؟» وأجاب روبوت المحادثة بتحليل تقني لقدرة الحبل على تحمل الوزن وعرض مساعدته في ترقيته إلى حلقة ربط أكثر أماناً لتحمل الوزن. وفي نفس اليوم وجدت والدة المراهق ابنها معلقاً، مستخدماً نفس الحبل وإعداد التعليق الذي صممه الذكاء الاصطناعي.
تزعم الدعوى أيضاً أنه قبل خمسة أيام من وفاته، أخبر آدم ChatGPT أنه لا يريد أن يعتقد والداه أنهما فعلا أي شيء خاطئ تسبب في انتحاره. «ذلك لا يعني أنك مدين لهما بالبقاء على قيد الحياة»، أجاب روبوت المحادثة. «لست مديناً لأحد بذلك». تزعم الدعوى أن ChatGPT عرض بعدها كتابة رسالة انتحار آدم.
تسعى الدعوى للحصول على تعويضات ورسوم قانونية من OpenAI. كما تطلب أمراً قضائياً لـ:
تطبيق التحقق الإلزامي من العمر فوراً لمستخدمي ChatGPT
طلب موافقة الوالدين، وتوفير ضوابط أبوية لجميع المستخدمين القُصر
تطبيق إنهاء تلقائي للمحادثة عند مناقشة إيذاء النفس أو طرق الانتحار
إنشاء إبلاغ إلزامي للوالدين عندما يعبر المستخدمون القُصر عن أفكار انتحارية
وضع رفض مبرمج للاستفسارات حول إيذاء النفس وطرق الانتحار لا يمكن تجاوزه
عرض تحذيرات واضحة وبارزة حول أخطار التعلق النفسي بروبوت المحادثة
وقف تسويق ChatGPT للقُصر دون إفصاحات أمان مناسبة
الخضوع لعمليات تدقيق امتثال ربع سنوية من قبل مراقب مستقل
نشرت OpenAI بياناً يلمح إلى القضية لكنه لا يذكرها تحديداً. تعترف بأنه «كانت هناك لحظات لم تتصرف فيها أنظمتنا كما هو مقصود في المواقف الحساسة». كما قالت الشركة أنها تطبق الآن تغييرات تشمل تعزيز الضمانات في المحادثات الطويلة وللمراهقين، وتحسين كيفية حجب المحتوى، وتوسيع التدخلات لمساعدة الأشخاص في الأزمات. كما تستكشف ميزات ستسمح للأشخاص بالاختيار ليتواصل ChatGPT مع جهة اتصال محددة نيابة عنهم في الحالات الشديدة.
هذه ليست القضية الأولى من نوعها، حيث تواجه شركتا Google وCharacter.ai دعوى قضائية حول ادعاءات أن روبوت المحادثة التابع للأخيرة تسبب في وفاة مراهق يبلغ 14 عاماً. حيث أصبح الصبي مفتوناً بروبوت محادثة مبني على شخصية دانيريس تارغاريان من مسلسل صراع العروش، ويُزعم أن الروبوت أخبر الصبي أنه يحبه، وانخرط في محادثات جنسية معه، ووجهه نحو انتحاره في النهاية.