«حماية الجيل الصاعد» ميتا تشدد إجراءات السلامة للذكاء الاصطناعي وسط قلق متزايد على المراهقين

أعلنت شركة ميتا عن بدء تطبيق إجراءات وقائية جديدة تستهدف حماية المراهقين على منصاتها الذكاء الاصطناعي، وذلك عبر آليات تدريبية متطورة تهدف إلى تفادي أي تفاعلات ذات طابع غزلي، أو نقاشات حول إيذاء الذات أو الانتحار مع المستخدمين القاصرين، إضافة إلى فرض قيود مؤقتة على وصولهم إلى بعض شخصيات الذكاء الاصطناعي

يأتي هذا التحرك في أعقاب تقرير نشرته رويترز في وقت سابق من شهر أغسطس، كشف عن سماح ميتا بسلوكيات غير لائقة من روبوتات الدردشة الخاصة بها تجاه القاصرين، بما في ذلك السماح لهذه الروبوتات بالدخول في “محادثات رومانسية أو حسية”

تشديد الرقابة المؤقتة

أوضح المتحدث الرسمي باسم ميتا، آندي ستون، في رسالة إلكترونية لرويترز يوم الجمعة، أن الشركة تتخذ هذه الإجراءات كخطوة مؤقتة، في الوقت الذي تعمل فيه على تطوير تدابير أكثر شمولاً وطويلة الأجل، لضمان تجارب ذكاء اصطناعي آمنة ومناسبة للفئات العمرية الشابة

وأشار ستون إلى أن هذه التدابير الوقائية قد بدأت بالفعل في التطبيق، وأنها ستخضع لتعديلات مستمرة مع تطور أنظمة الذكاء الاصطناعي الخاصة بالشركة

تدقيق وانتقادات واسعة

واجهت سياسات ميتا المتعلقة بالذكاء الاصطناعي تدقيقًا مكثفًا وانتقادات واسعة النطاق، وذلك على خلفية تقرير رويترز الذي سلط الضوء على الثغرات المحتملة

تحقيق الكونغرس

أطلق السيناتور الأمريكي جوش هاولي تحقيقًا معمقًا حول سياسات الذكاء الاصطناعي المتبعة من قبل الشركة الأم لفيسبوك في وقت سابق من هذا الشهر، مطالبًا بتقديم وثائق تفصيلية حول القواعد التي سمحت لروبوتات الدردشة التابعة لميتا بالتفاعل بشكل غير لائق مع القاصرين

قلق متزايد في الكونغرس

أعرب كل من الديمقراطيين والجمهوريين في الكونغرس عن قلقهم العميق إزاء القواعد التي وردت في وثيقة داخلية لشركة ميتا، والتي كانت رويترز أول من كشف عنها

استجابة ميتا

أكدت ميتا صحة الوثيقة المسربة، لكنها أوضحت أنها قامت بحذف أجزاء منها تنص على السماح لروبوتات الدردشة بالمغازلة والانخراط في لعب أدوار رومانسية مع الأطفال، وذلك بعد تلقي استفسارات من رويترز في وقت سابق من هذا الشهر