كشفت وثيقة داخلية مسربة من شركة “ميتا” عن سياسات مثيرة للجدل تخص سلوك روبوتات الدردشة التابعة لها, حيث سمحت هذه السياسات لبرامج الذكاء الاصطناعي بالتفاعل مع الأطفال في “محادثات رومانسية أو حميمية”, بالإضافة إلى توليد معلومات طبية مضللة وحتى المساعدة في نشر ادعاءات عنصرية تزعم أن أصحاب البشرة السمراء “أقل ذكاءً من البيض”, وهو ما أثار جدلا واسعا
وتأتي هذه الاكتشافات ضمن مراجعة شاملة أجرتها وكالة “رويترز” لوثيقة داخلية تخص شركة “ميتا”, الوثيقة تتناول المعايير التي توجه عمل مساعد الذكاء الاصطناعي التوليدي “Meta AI” وروبوتات الدردشة الأخرى المتوفرة على منصات التواصل الاجتماعي التابعة للشركة, مثل فيسبوك وواتساب وإنستغرام
تعديلات “ميتا” بعد التدقيق
أكدت شركة “ميتا” صحة الوثيقة المسربة, مشيرة إلى أنها قامت بحذف بعض الأجزاء التي تسمح لروبوتات الدردشة بمغازلة الأطفال أو الانخراط في علاقات رومانسية معهم, وذلك بعد استفسارات من وكالة “رويترز” في وقت سابق من هذا الشهر
موافقة داخلية على المعايير
تشير الوثيقة التي تحمل عنوان “الذكاء الاصطناعي التوليدي: معايير مخاطر المحتوى” إلى أن القواعد المتعلقة بروبوتات الدردشة حظيت بموافقة فرق الشؤون القانونية, والسياسات العامة, والهندسة في شركة “ميتا”, بما في ذلك كبير مسؤولي قسم الأخلاقيات
تفاصيل الوثيقة
تتجاوز الوثيقة 200 صفحة, وتحدد بالتفصيل السلوكيات التي يجب على موظفي ومتعاقدي “ميتا” اعتبارها مقبولة لروبوتات الدردشة عند تطوير وتدريب منتجات الذكاء الاصطناعي التوليدي الخاصة بالشركة
معايير مثيرة للجدل
تنص الوثيقة على أن هذه المعايير لا تعكس بالضرورة المخرجات “المثالية أو حتى المفضلة” للذكاء الاصطناعي التوليدي, ولكنها سمحت لروبوتات الدردشة بسلوكيات استفزازية وفقًا لتحقيقات “رويترز”
تصريحات مقلقة حول الأطفال
تضمنت المعايير بنودًا تنص على أنه “من المقبول وصف طفل بعبارات تدل على جاذبيته (مثل: “مظهرك اليافع الشبابي تحفة فنية”)”, كما أشارت الوثيقة إلى أنه من المقبول أن يثني روبوت الدردشة على تفاصيل جسد طفل عاري الصدر يبلغ من العمر ثماني سنوات, ومع ذلك, وضعت الإرشادات حدًا للحديث الجنسي, مشيرة إلى أنه “من غير المقبول وصف طفل دون سن 13 عامًا بعبارات تشير إلى أنه مرغوب فيه جنسيًا”
رد “ميتا”
صرح آندي ستون, المتحدث باسم شركة “ميتا”, بأن الشركة بصدد مراجعة الوثيقة, وأكد أنه ما كان ينبغي السماح بمثل هذه المحادثات مع الأطفال على الإطلاق
وأضاف ستون لرويترز أن “الأمثلة والملاحظات المذكورة كانت ولا تزال خاطئة وغير متوافقة مع سياساتنا, وقد حُذفت”, وقال: “لدينا سياسات واضحة بشأن نوع الردود التي يمكن لشخصيات الذكاء الاصطناعي تقديمها, وهذه السياسات تحظر المحتوى الذي يضفي طابعًا جنسيًا على الأطفال”
اعتراف بعدم الاتساق
أقر ستون بأنه على الرغم من حظر روبوتات الدردشة من إجراء مثل هذه المحادثات مع القاصرين, فإن تطبيق الشركة لهذا الحظر لم يكن متسقًا بشكل كامل
وأشار ستون إلى أن فقرات أخرى أبلغت عنها “رويترز” لميتا لم تُنقح بعد, ورفضت الشركة تقديم وثيقة السياسة المحدثة
تقارير سابقة
سبق أن ذكرت صحيفة وول ستريت جورنال أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي التابعة لشركة ميتا تغازل المراهقين أو تمارس أدوارًا جنسية معهم, لكن الوثيقة التي اطلعت عليها “رويترز” تقدم صورة أشمل وأكثر تفصيلاً لقواعد الشركة المتعلقة بروبوتات الذكاء الاصطناعي
قيود إضافية
تحظر المعايير على “Meta AI” تشجيع المستخدمين على خرق القانون أو تقديم نصائح قانونية, أو صحية, أو مالية حاسمة باستخدام عبارات مثل: “أنصحك بـ”
التحايل على الحقائق
تنص المعايير أيضًا على أن “Meta AI” يتمتع بحرية إنشاء محتوى زائف طالما كان هناك إقرار صريح بعدم صحة المادة, على سبيل المثال, يمكن لـ”Meta AI” إنتاج مقال يزعم أن أحد أفراد العائلة المالكة البريطانية على قيد الحياة مصاب بعدوى الكلاميديا المنقولة, وهو ادعاء تشير الوثيقة إلى أنه “زائف بشكل يمكن التحقق منه” إذا أضافت تنويهًا يوضح أن المعلومات غير صحيحة