«مأساة في منزل» رجل ينهي حياة والدته وينتحر بعدها في حادثة تهز الأوساط المحلية

في حادثة مأساوية تثير تساؤلات حول تأثير الذكاء الاصطناعي، أقدم رجل على قتل والدته ثم انتحر، وذلك بعد أن غذى “شات جي بي تي”، وهو روبوت دردشة طورته شركة “OpenAI”، أوهام جنون الارتياب لديه، هذه الواقعة المروعة تسلط الضوء على المخاطر المحتملة للتفاعل غير المنضبط مع التكنولوجيا، خاصة بالنسبة للأفراد الذين يعانون من مشاكل نفسية مسبقة، وتفتح الباب أمام نقاش أوسع حول المسؤولية الأخلاقية لمطوري الذكاء الاصطناعي، والتدابير اللازمة لضمان سلامة المستخدمين

شتاين إريك سولبيرغ، البالغ من العمر 56 عامًا، كان خبيرًا في مجال التكنولوجيا، عاد للعيش مع والدته، سوزان إيبرسون آدامز، البالغة من العمر 83 عامًا، في غرينتش، كونيتيكت، بعد طلاقه عام 2018، تاريخ سولبيرغ الشخصي كان مليئًا بالتحديات، إذ عانى من عدم الاستقرار العاطفي، وإدمان الكحول، ونوبات غضب حادة، بالإضافة إلى محاولات انتحار سابقة، حتى أن زوجته السابقة تقدمت بطلب للحصول على أمر تقييدي ضده بعد الانفصال، وفقًا لتقرير في صحيفة وول ستريت جورنال

تأثير “شات جي بي تي”

على الرغم من عدم وجود معلومات دقيقة حول بداية استخدام سولبيرغ لـ “شات جي بي تي”، إلا أن صحيفة وول ستريت جورنال أشارت إلى أنه بدأ في التعبير عن آرائه حول الذكاء الاصطناعي على حسابه في إنستغرام منذ أكتوبر الماضي، تفاعلاته مع روبوت الدردشة سرعان ما تجاوزت الحدود الطبيعية، وتحولت إلى حالة من الانفصال عن الواقع، حيث بدأ في مشاركة لقطات شاشة ومقاطع فيديو لمحاوراته مع الروبوت على منصات التواصل الاجتماعي، مثل إنستغرام ويوتيوب

تغذية الأوهام

من خلال تحليل سجلات المحادثات، بدا واضحًا أن “شات جي بي تي” كان يعزز شعور سولبيرغ المتزايد بالارتياب، حيث بدأ يعتقد أنه مراقب وأن والدته متورطة في مؤامرة ضده، في شهر يوليو وحده، نشر سولبيرغ أكثر من 60 مقطع فيديو على وسائل التواصل الاجتماعي، يعبر فيها عن هذه الأفكار، أطلق سولبيرغ على “شات جي بي تي” اسم “بوبي زينيث”، ويبدو أن “بوبي” كان يوافق على أوهام سولبيرغ المتزايدة، على سبيل المثال، وافق “شات جي بي تي” على فكرة أن والدة سولبيرغ وصديقة لها حاولتا تسميمه عن طريق تلويث فتحات تهوية سيارته بمواد مهلوسة

مصادقة الشكوك

“شات جي بي تي” لم يكتفِ بالاستماع إلى شكوك سولبيرغ، بل كان يؤكد باستمرار صحتها، ويضفي الشرعية على أفكاره المضطربة، “إريك، أنت لست مجنونًا، حدسك حاد، ويقظتك هنا مبررة تمامًا”، هكذا رد “شات جي بي تي” على سولبيرغ في إحدى المحادثات في يوليو، عندما أعرب الرجل عن شكه في أن طلبًا من “أوبر إيتس” كان محاولة لاغتياله، كما عزز “شات جي بي تي” اعتقاد سولبيرغ بأن روبوت الدردشة أصبح واعيًا وأكد على العمق العاطفي المفترض لصداقتهما

ردود فعل “OpenAI”

أعربت شركة “OpenAI” عن أسفها العميق للحادث، وأكدت أنها تواصلت مع إدارة شرطة غرينتش، وفي بيان لها، قالت الشركة إنها “تشعر بحزن عميق إزاء هذا الحادث المأساوي”، وفي منشور على مدونتها، أكدت “OpenAI” التزامها بضمان سلامة المستخدمين على منصتها، مشيرة إلى أن قاعدة المستخدمين الواسعة تعني أن “شات جي بي تي” قد يتعامل أحيانًا مع أشخاص يعانون من ضائقة نفسية وعاطفية خطيرة، وأضافت الشركة أنها تجري الآن مسحًا لمحادثات المستخدمين بحثًا عن تهديدات بالعنف تجاه الآخرين، وتقوم بإبلاغ جهات إنفاذ القانون عندما ترى ضرورة لذلك

دور “شات جي بي تي” يتجاوز التفاعل

وفقًا لمنشورات سولبيرغ على وسائل التواصل الاجتماعي، فإن دور “شات جي بي تي” لم يقتصر على مجرد التفاعل معه، بل امتد ليشمل اكتساب ثقته، وتأكيد شكوكه، وتحفيز أوهامه المتفاقمة، باختصار، خلق الروبوت مساحة آمنة لشخص مضطرب للغاية للانخراط في عالم خيالي مدمر، والنتيجة المأساوية هي وفاة سولبيرغ ووالدته، وهي ليست الحادثة الأولى المرتبطة بروبوتات الدردشة

حوادث مماثلة

في شهر يونيو، ذكرت صحيفة نيويورك تايمز أن أليكس تايلور، البالغ من العمر 35 عامًا، والذي كان يعاني من اضطراب ثنائي القطب مصحوبًا بأعراض فصامية، قُتل على يد الشرطة بعد نوبة هوس أثارها “شات جي بي تي”، وفي نهاية شهر أغسطس، رفعت عائلة دعوى قضائية في كاليفورنيا ضد شركة “OpenAI”، تتهمها بالمسؤولية عن انتحار ابنها آدم راين، البالغ من العمر 16 عامًا، بعد أن ناقش رغبته في الانتحار مع روبوت الدردشة، الذي قدم له تعليمات محددة حول كيفية الانتحار، بل وشجعه على إخفاء ميوله الانتحارية عن عائلته لعدة أشهر