تحدث سام ألتمان، الرئيس التنفيذي لشركة الذكاء الاصطناعي “OpenAI” مطورة “شات جي بي تي”، في مقابلة الأسبوع الماضي عن مجموعة واسعة من الموضوعات الأخلاقية التي تخص شركته وروبوت الدردشة التابع لها، إضافة إلى جوانب من حياته الشخصية.
وكشف ألتمان، خلال المقابلة التي أجراها مع المذيع السابق في قناة “فوكس نيوز” تاكر كارلسون، عن معاناته من الأرق بسبب القلق الذي يساوره حيال عدة أمور، يأتي “شات جي بي تي” في مقدمتها.
وصرح ألتمان: “لا أنعم بنوم هانئ ليلاً، هناك الكثير من الأمور التي أجدها عبئًا على كاهلي، ولكن ربما لا يضاهي ذلك حقيقة أن مئات الملايين من الأشخاص يتفاعلون مع نموذجنا يوميًا”، وفقًا لتقرير نشرته قناة “سي إن بي سي” واطلعت عليه “العربية Business”.
وأضاف: “في الواقع، لست قلقًا بشأن ارتكاب أخطاء فادحة في القرارات الأخلاقية الكبرى”، ومع ذلك، أقر بأنه “قد نخطئ فيها أيضًا”.
وأوضح أن الأمر الذي يقض مضجعه أكثر هو “القرارات الصغيرة جدًا” المتعلقة بسلوك “شات جي بي تي”، والتي قد تحمل في طياتها تداعيات كبيرة.
تتمحور هذه القرارات في الغالب حول المبادئ الأخلاقية التي توجه “شات جي بي تي”، والأسئلة التي يجيب عليها روبوت الدردشة أو يتجاهلها.
فيما يلي نظرة عن كثب على بعض المعضلات الأخلاقية التي يبدو أنها تؤرق ألتمان في الليل.
### كيف يتعامل “شات جي بي تي” مع الانتحار؟
وفقًا لتصريحات ألتمان، فإن التحدي الأكبر الذي يواجه “OpenAI” حاليًا هو كيفية معالجة “شات جي بي تي” لموضوع الانتحار، وذلك في ضوء الدعوى القضائية التي رفعتها عائلة تتهم روبوت الدردشة بالتسبب في انتحار ابنها المراهق.
وأشار الرئيس التنفيذي لـ”OpenAI” إلى أنه من بين آلاف الأشخاص الذين يقدمون على الانتحار أسبوعيًا، ربما يكون العديد منهم قد تحدثوا مع “شات جي بي تي” قبل إقدامهم على هذا الفعل.
وقال ألتمان بصراحة: “ربما تطرقوا إلى موضوع (الانتحار)، وربما لم نتمكن من إنقاذ حياتهم، ربما كان بإمكاننا تقديم شيء أفضل، ربما كان يمكننا أن نكون أكثر استباقية، ربما كان بإمكاننا تقديم نصيحة أفضل قليلاً، مثل: مرحبًا، يجب عليك طلب المساعدة”.
بعد فترة وجيزة من تقديم والدي المراهق دعوى قضائية ضد “OpenAI” يتهمان الشركة بالمسؤولية عن انتحار ابنهما، أوضحت الشركة في منشور عبر مدونتها خططها لمعالجة أوجه القصور في “شات جي بي تي” عند التعامل مع “المواقف الحساسة”، وأكدت أنها ستواصل تطوير تقنيتها لحماية الفئات الأكثر ضعفًا.
### كيف تُحدد أخلاقيات “شات جي بي تي”؟
خلال المقابلة، تناول الرئيس التنفيذي لـ”OpenAI” أيضًا الأخلاقيات والمبادئ التي توجه “شات جي بي تي” والقائمين عليه.
على الرغم من أن ألتمان وصف النموذج الأساسي لـ”شات جي بي تي” بأنه مُدرّب على الخبرة والمعرفة والدروس الجماعية المكتسبة للبشر، إلا أنه أكد على ضرورة قيام “OpenAI” بتعديل بعض سلوكيات روبوت الدردشة وتحديد الأسئلة التي لن يجيب عليها.
وأوضح: “هذه مشكلة معقدة حقًا، لدينا قاعدة كبيرة من المستخدمين الآن، وهم ينتمون إلى خلفيات مختلفة تمامًا، ولكن بشكل عام، فوجئت بسرور بقدرة النموذج على تعلم وتطبيق إطار أخلاقي”.
ورداً على سؤال حول كيفية تحديد مواصفات نموذج معين، أفاد ألتمان بأن الشركة استشارت “مئات الفلاسفة (المتخصصين) في الأخلاق والأفراد الذين لديهم خبرة في أخلاقيات التكنولوجيا والأنظمة”.
وقدم مثالًا على أحد المواصفات التي تم وضعها للنموذج، وهو أن “شات جي بي تي” سيمتنع عن الإجابة على الأسئلة المتعلقة بكيفية صنع الأسلحة البيولوجية إذا طلب المستخدمون ذلك.
واختتم ألتمان حديثه قائلاً: “هناك أمثلة واضحة حيث توجد مصلحة للمجتمع تتعارض بشكل كبير مع حرية المستخدم”، ولكنه أضاف أن الشركة “لن تصيب كل شيء، وتحتاج أيضًا إلى مساهمة العالم” للمساعدة في اتخاذ مثل هذه القرارات.