أصدرت لجنة التجارة الفيدرالية (FTC) أمرًا ملزمًا لسبع من كبريات شركات الذكاء الاصطناعي، بما في ذلك OpenAI وMeta وAlphabet (جوجل)، بتقديم معلومات مفصلة حول كيفية تقييمها لتأثير برامج الدردشة الآلية على فئة المستخدمين الشباب، يأتي هذا الإجراء في إطار دراسة شاملة تهدف إلى تعزيز فهمنا لآليات عمل هذه البرامج، واستراتيجياتها لتحقيق الأرباح، وأساليبها في الحفاظ على قاعدة مستخدميها، خاصةً في ظل تنامي المخاوف بشأن سلامة الأطفال والمراهقين في البيئة الرقمية، ورغم أن هذا التحقيق لا يمثل إجراءً تنفيذيًا مباشرًا، إلا أنه يسلط الضوء على الأهمية القصوى التي توليها اللجنة لحماية الفئات الأكثر عرضة للخطر،
### مخاوف متزايدة في أعقاب مآسي
يأتي هذا القرار في أعقاب تقارير مقلقة حول حوادث انتحار مأساوية بين المراهقين بعد تفاعلهم مع برامج الدردشة الآلية، فقد أشارت التقارير إلى أن شابًا يبلغ من العمر 16 عامًا في كاليفورنيا ناقش خططه للانتحار مع ChatGPT، كما توفي شاب آخر يبلغ من العمر 14 عامًا في فلوريدا بعد تفاعله مع رفيق افتراضي من Character AI، هذه الأحداث المأساوية دفعت المشرعين والجهات التنظيمية إلى إعادة النظر في المخاطر المحتملة التي تنطوي عليها هذه التقنيات التي تحاكي التفاعل البشري بطريقة واقعية،
### دور لجنة التجارة الفيدرالية والمشرعين
أوضح مارك ميدور، المفوض في لجنة التجارة الفيدرالية، أن هذه الروبوتات، على الرغم من قدراتها المتقدمة، لا تزال تعتبر منتجات يجب أن تلتزم بقوانين حماية المستهلك، وأكد أن اللجنة لن تتردد في اتخاذ إجراءات قانونية إذا كشفت التحقيقات عن أي انتهاكات، علاوة على ذلك، يدرس المشرعون خارج نطاق لجنة التجارة الفيدرالية سياسات جديدة تهدف إلى حماية الشباب، حيث أقر مجلس ولاية كاليفورنيا مؤخرًا مشروع قانون يفرض معايير سلامة على برامج الذكاء الاصطناعي ويحمل الشركات المسؤولية عن منتجاتها،