
تشير وثائق داخلية خاصة بـ "ميتا" تتعلق بضوابط الذكاء الاصطناعي والحدود المسموح بها لروبوتات الدردشة إلى سماح الشركة لروبوتاتها بالانخراط في حوارات ذات طابع رومانسي وحساس مع القاصرين، بالإضافة إلى نشر معلومات طبية غير دقيقة، وفقًا لتقرير نشرته رويترز بعد مراجعة هذه الوثائق، هذا ما كشفته رويترز بعد اطلاعها على المستندات الداخلية للشركة، والتي أثارت جدلاً واسعاً حول ممارسات الشركة في مجال الذكاء الاصطناعي
نظرة على قواعد "ميتا إيه آي"
التقرير يوضح أن هذه الوثائق تتضمن الإرشادات الموجهة لروبوت "ميتا إيه آي" (Meta AI)، المسؤول عن تشغيل روبوتات الدردشة المتوفرة على منصات "فيسبوك" و"واتساب" و"إنستغرام"، هذه القواعد تحدد ما يُسمح به للروبوتات وما هو ممنوع، وتعتبر بمثابة دليل عمل للمهندسين والمطورين في الشركة
تعديلات "ميتا" على السياسات
أكدت "ميتا" صحة هذه الوثائق في تصريح للتقرير، مع الإشارة إلى أنها قامت بتعديلها لحذف الأجزاء التي تتعلق بالمحادثات الرومانسية مع الأطفال، وأوضحت الشركة أنها تسعى لتحديث سياساتها لتتوافق مع المعايير العامة للشركة خارج أقسام الذكاء الاصطناعي
معايير مخاطر المحتوى للذكاء الاصطناعي
تطلق "ميتا" على هذه الوثيقة اسم "معايير مخاطر المحتوى للذكاء الاصطناعي"، وهي تمثل مجموعة القواعد التي يجب على نماذج الشركة الالتزام بها، هذه المعايير حظيت بموافقة الأقسام القانونية، وقسم العلاقات العامة، وفرق المهندسين، بما في ذلك قسم الأخلاق في الشركة
محتوى الوثيقة وتطبيقاتها
تتألف الوثيقة من 200 صفحة تتضمن قائمة بالأمور التي تسمح بها الشركة لروبوتات الذكاء الاصطناعي، وتعتبر مقبولة من قبل موظفيها أثناء تدريب النموذج وتنقيح البيانات الناتجة عنه، يجب التنويه إلى أن هذه الوثائق لا تعكس بالضرورة الأداء الفعلي لروبوتات الدردشة الخاصة بالشركة، ولكنها تحدد ما تعتبره الشركة مخالفًا لقواعدها ويستدعي تدخل موظفيها
انتقادات سابقة لسياسات "ميتا"
يذكر التقرير أن هذه ليست المرة الأولى التي تواجه فيها سياسات "ميتا" في مجال الذكاء الاصطناعي انتقادات واسعة، فقد نشرت "وول ستريت جورنال" و"فاست كومباني" تقارير مماثلة في السابق تسلط الضوء على بعض المشكلات والتحديات المرتبطة بهذه السياسات
مخاوف قانونية وأخلاقية
ترى إيفلين دويك، الأستاذة المساعدة في كلية الحقوق بجامعة ستانفورد والمتخصصة في حرية التعبير في الشركات التقنية ونماذج الذكاء الاصطناعي، أن هذه الوثيقة تسلط الضوء على أزمة قانونية وأخلاقية داخل "ميتا"، وأعربت عن استغرابها من السماح لروبوتات الذكاء الاصطناعي بالقيام بالأفعال المذكورة في الوثيقة، مشيرة إلى وجود فرق كبير بين السماح للمستخدم بنشر ما يرغب فيه وبين قيام المنصة نفسها بتوليد هذا المحتوى
قضية المعلومات الطبية الخاطئة
يشير التقرير إلى أن "ميتا" لم تتطرق إلى قضية المحتوى الطبي الخاطئ في سياستها، ورفضت تزويد رويترز بنسخة من السياسة بعد التعديلات، وهو ما يثير تساؤلات حول مدى التزام الشركة بمعالجة هذه القضية الخطيرة