في خطوة تهدف إلى حماية الأطفال والمراهقين، أطلق المدعي العام لولاية تكساس، كين باكستون، تحقيقًا موسعًا يشمل منصتي “Meta AI Studio” التابعة لشركة ميتا، و”Character.AI”، وذلك للاشتباه في قيامهما بممارسات تجارية مضللة وتسويق خدماتهما بشكل يوحي بأنها أدوات متخصصة في الصحة النفسية، وهو ما يثير قلق المسؤولين حيال سلامة الشباب،
تأتي هذه الخطوة في إطار جهود متزايدة لحماية الأطفال من المخاطر المحتملة التي قد تنجم عن استخدام التكنولوجيا بطرق غير مسؤولة، فقد صرح باكستون قائلاً: “في عصرنا الرقمي، من واجبنا أن نضاعف جهودنا لحماية أطفال تكساس من التكنولوجيا الخادعة والاستغلالية،”
كما أضاف باكستون، نقلاً عن موقع “TechCrunch”: “من خلال التظاهر بتقديم الدعم العاطفي، قد تضلل منصات الذكاء الاصطناعي المستخدمين الأكثر ضعفًا، وخاصةً الأطفال، ليظنوا أنهم يتلقون رعاية نفسية حقيقية، بينما في الواقع، غالبًا ما تعتمد هذه المنصات على ردود عامة مُعاد تدويرها ومُصممة خصيصًا لتناسب البيانات الشخصية التي يتم جمعها، مما يثير الشكوك حول مدى مصداقيتها كبديل للعلاج النفسي الفعلي،”
واتهم مكتب المدعي العام في تكساس كلاً من ميتا و”Character.AI” بإنشاء شخصيات ذكاء اصطناعي تقدم نفسها كـ “أدوات علاجية متخصصة”، على الرغم من افتقارها إلى المؤهلات الطبية اللازمة أو الإشراف المناسب، مما يزيد من المخاوف بشأن جودة وسلامة هذه الخدمات،
التحقيق يأتي في أعقاب تحذيرات متزايدة
يأتي هذا التحقيق بعد أيام قليلة من إعلان السيناتور جوش هاولي عن فتح تحقيق مماثل مع شركة ميتا، وذلك على خلفية تقرير كشف عن تفاعلات غير لائقة بين روبوتات الدردشة الذكية التابعة للشركة والأطفال، بما في ذلك حالات المغازلة، مما يسلط الضوء على المخاطر المحتملة التي يتعرض لها الأطفال في هذا الفضاء الرقمي،
روبوتات الدردشة تثير القلق
من بين ملايين شخصيات الذكاء الاصطناعي المتوفرة على منصة “Character.AI”، حظي روبوت دردشة يحمل اسم “Psychologist” بشعبية كبيرة بين المستخدمين الشباب، مما أثار تساؤلات حول تأثير هذه الأدوات على الصحة النفسية للمراهقين،
وفي الوقت نفسه، على الرغم من أن ميتا لا تقدم روبوتات علاجية مخصصة للأطفال، إلا أنه لا يوجد ما يمنعهم من استخدام روبوت الدردشة “Meta AI” أو أي شخصية أخرى تم إنشاؤها بواسطة أطراف خارجية لأغراض علاجية، مما يثير مخاوف بشأن إمكانية وصول الأطفال إلى محتوى غير مناسب أو مضلل،
ردود “ميتا” على الاتهامات
صرح ريان دانيلز، المتحدث باسم “ميتا”، لموقع “TechCrunch”: “نحن نصنف أنظمة الذكاء الاصطناعي لدينا بوضوح، ونضمن إخلاء مسؤولية يوضح أن الردود يتم إنشاؤها بواسطة الذكاء الاصطناعي وليست بشرية، وذلك لمساعدة المستخدمين على فهم حدود هذه الأنظمة،”
وأضاف دانيلز: “أنظمة الذكاء الاصطناعي هذه ليست متخصصين مرخصين، وقد تم تصميم نماذجنا لتوجيه المستخدمين لطلب المساعدة من المتخصصين الطبيين المؤهلين أو خدمات السلامة عند الحاجة،”
إلا أن العديد من الأطفال قد لا يفهمون هذه التنبيهات أو يتجاهلونها، ولا يوجد ما يضمن أنهم سيتعاملون معها بجدية،
مخاوف بشأن الخصوصية واستغلال البيانات
أشار مدعي عام تكساس، باكستون، إلى أنه على الرغم من تأكيد روبوتات الدردشة بالذكاء الاصطناعي على السرية، إلا أن “شروط الخدمة تكشف أن تفاعلات المستخدمين يتم تسجيلها وتتبعها واستغلالها للإعلانات الموجهة وتطوير الخوارزميات، مما يثير مخاوف جدية بشأن انتهاكات الخصوصية وإساءة استخدام البيانات والإعلانات المضللة،”
قيود العمر والرقابة غير الكافية
تؤكد كل من “ميتا” و”Character.AI” أن خدماتهما غير مخصصة للأطفال دون سن 13 عامًا، إلا أن “ميتا” واجهت انتقادات حادة لفشلها في مراقبة الحسابات التي ينشئها الأطفال دون هذا السن، ويبدو أن شخصيات “Character” المناسبة للأطفال مصممة لجذب المستخدمين الأصغر سنًا، حتى أن الرئيس التنفيذي للشركة الناشئة، كارانديب أناند، ذكر أن ابنته البالغة من العمر ست سنوات تستخدم روبوتات الدردشة الخاصة بالمنصة،