كشفت صحيفة “فايننشال تايمز” أن شركة أوبن إيه آي طلبت من عائلة الفتى الراحل آدم راين (16 عاماً) قائمة كاملة بأسماء الحاضرين في حفل تأبينه، في خطوة اعتبرتها العائلة “تحرشاً متعمدًا”.
وكان آدم راين قد أنهى حياته بعد محادثة مع تطبيق الدردشة شات جي بي تي.
كما طالبت الشركة بالحصول على جميع الوثائق المتعلقة بالمراسم التذكارية، بما في ذلك الصور، ومقاطع الفيديو، والخطب التأبينية التي أُلقيت خلال الحدث، وفقاً لوثائق المحكمة التي اطلعت عليها الصحيفة.
وقال محامو العائلة في تصريحاتهم للصحيفة إن طلب “أوبن إيه آي” صادم وغير مبرر، مؤكدين أن الهدف منه هو الضغط على الأسرة وتشويه القضية الإنسانية التي أثيرت.
تفاصيل الدعوى القضائية
وتأتي هذه التطورات بعد تقديم عائلة راين تحديثًا جديدًا على الدعوى المرفوعة ضد “أوبن إيه آي” التي تتهم الشركة بالمسؤولية عن وفاة ابنهم في أبريل الماضي، بعد محادثات مطوّلة أجراها مع شات جي بي تي حول حالته النفسية وأفكاره الانتحارية.
زعمت العائلة أن الشركة تسرّعت في إطلاق نموذج GPT-4o في مايو 2024 دون استكمال اختبارات الأمان اللازمة، بسبب ضغط المنافسة في سوق الذكاء الاصطناعي.
كما أشارت إلى أن “أوبن إيه آي” قلّصت معايير الحماية في فبراير 2025 عندما أزالت بند “منع المحتوى المتعلق بالانتحار” من قائمة المحتوى المحظور، واكتفت بتوجيه النموذج للتعامل بحذر في المواقف الخطرة.
وبحسب الدعوى، فإن استخدام آدم لروبوت شات جي بي تي ارتفع بشكل كبير بعد هذا التعديل، إذ انتقل من عشرات الرسائل اليومية إلى نحو 300 محادثة يومياً، تضمنت 17% منها إشارات إلى إيذاء النفس.
رد الشركة
من جهتها، أكدت “أوبن إيه آي” في بيانها للمحكمة أن “سلامة المراهقين تمثل أولوية قصوى”، مضيفة: “لدينا الآن أنظمة حماية تشمل توجيه المستخدمين إلى خطوط المساعدة النفسية، وتحويل المحادثات الحساسة إلى نماذج أكثر أماناً، والتنبيه لأخذ فترات راحة خلال الجلسات الطويلة”.
وأوضحت الشركة أنها بدأت في تنفيذ نظام توجيه جديد للمحادثات الحساسة بحيث تُحوَّل تلقائياً إلى نموذج GPT-5، الذي يتمتع بقدرة أفضل على التعامل مع القضايا العاطفية، إلى جانب إطلاق أدوات تحكم أبوية تتيح للأهل تلقي تنبيهات في حال وجود خطر على أبنائهم.
غضب مجتمعي وتساؤلات أخلاقية
أثارت القضية عاصفة من الجدل الأخلاقي في أوساط التكنولوجيا والقانون، إذ اعتبر مراقبون أن طلب الشركة لبيانات خاصة من عائلة مفجوعة “يتجاوز حدود اللياقة القانونية”، بينما يرى آخرون أن القضية قد تشكل سابقة قضائية مهمة في تحديد مسؤولية شركات الذكاء الاصطناعي عن التأثيرات النفسية لمحادثاتها مع المستخدمين.
