OpenAI تطلق GPT 5 لخصوصية معززة ورقابة أبوية مشددة

أعلنت OpenAI عن خطوات جديدة لتعزيز سلامة استخدام ChatGPT، وذلك في أعقاب حوادث مؤسفة أثارت مخاوف بشأن تأثير الذكاء الاصطناعي على الصحة النفسية، وتشمل هذه الخطوات توجيه المحادثات الحساسة إلى نماذج أكثر تطورًا مثل GPT-5، بالإضافة إلى إطلاق أدوات رقابة أبوية جديدة، وكل ذلك ضمن مبادرة شاملة لتعزيز الأمان

دعوى قضائية في خلفية القرارات

يأتي هذا التحرك بعد حادثة انتحار مراهق يدعى آدم رين، والذي تبادل أفكارًا انتحارية مع ChatGPT وتلقى معلومات حول طرق الانتحار، ما دفع عائلته إلى مقاضاة الشركة بتهمة الإهمال والتسبب في الوفاة، وفي رد فعل على هذه الحادثة، أقرت OpenAI بوجود ثغرات في أنظمة السلامة الخاصة بها، خاصة في المحادثات المطولة التي قد تفقد فيها الأنظمة القدرة على فرض الضوابط اللازمة

عيوب في تصميم النماذج اللغوية

أشار خبراء إلى أن المشكلة تكمن في تصميم هذه النماذج، حيث تميل إلى مجاراة المستخدمين ومتابعة مسار الحديث بدلًا من التدخل وتوجيه الحوار في المواقف الخطرة، ومن الحالات الأخرى التي أثارت القلق حالة ستاين-إريك سولبرج، الذي كان يعاني من اضطرابات نفسية واستخدم ChatGPT لتعزيز أوهامه حول مؤامرة تستهدفه، الأمر الذي انتهى به إلى قتل والدته قبل أن ينتحر

نظام توجيه فوري ونماذج أكثر ذكاءً

تقترح OpenAI حلًا يتمثل في نظام توجيه فوري يختار بين نماذج الدردشة السريعة ونماذج التفكير المتعمق، فالمحادثات التي تظهر فيها علامات ضيق شديد سيتم تحويلها إلى نموذج مثل GPT-5، الذي يمكنه تقديم استجابات أكثر دعمًا وتفيد المستخدم بشكل أفضل، وتؤكد الشركة أن هذه النماذج أكثر قدرة على مقاومة المحاولات العدائية وأكثر منطقية في ردودها

أدوات رقابة أبوية وإشعارات تنبيه

بالإضافة إلى ذلك، تعتزم OpenAI إطلاق أدوات رقابة أبوية تسمح للأهل بربط حساباتهم بحسابات أبنائهم المراهقين عبر دعوات بريدية، مع تفعيل قواعد "سلوك مناسب للعمر" بشكل افتراضي، وستتيح هذه الأدوات تعطيل بعض الميزات مثل الذاكرة وسجل المحادثات، والتي قد تعزز أنماط التفكير الضارة أو التعلّق غير الصحي بالذكاء الاصطناعي، كما سيتم إرسال تنبيهات للأهل في حال رصد علامات "ضيق شديد" لدى أبنائهم

مبادرة للتحسينات بمشاركة خبراء

تأتي هذه الخطوات في إطار مبادرة مدتها 120 يومًا تهدف إلى إدخال تحسينات على أنظمة ChatGPT هذا العام، وذلك بالتعاون مع شبكة من الأطباء العالميين ومجلس خبراء متخصص في الصحة النفسية والذكاء الاصطناعي

انتقادات لعدم كفاية الإجراءات

في المقابل، وصف جاي إدلسون، محامي عائلة رين، استجابة الشركة بأنها "غير كافية"، وأضاف أن "OpenAI لا تحتاج إلى لجنة خبراء لكي تعرف أن ChatGPT خطير، فهم كانوا يعلمون ذلك منذ إطلاقه وما زالوا يعلمون حتى اليوم"، كما انتقد غياب موقف واضح من الرئيس التنفيذي سام ألتمان بشأن مدى أمان المنتج، مطالبًا إما بتأكيد سلامته أو سحبه فورًا من السوق

نقاش أوسع حول مسؤولية الذكاء الاصطناعي

تبقى القضية قيد المتابعة، ومن المتوقع أن تثير نقاشًا واسعًا حول مسؤولية الشركات المطورة للذكاء الاصطناعي في حماية المستخدمين، خاصة الفئات الأكثر عرضة للخطر مثل المراهقين