أثار تطبيق “سورا” الجديد من OpenAI، الذي يعتمد تنسيقًا مشابهًا لتطبيق تيك توك الشهير، جدلاً واسعًا وكبيرًا بعد أقل من 24 ساعة فقط من إطلاقه للجمهور في مرحلة الوصول المبكر.
مقاطع فيديو مثيرة للجدل
من بين الفيديوهات التي تداولها المستخدمون، برز مشهدٌ غير اعتيادي لمزرعة خنازير شاسعة، حيث يمتلك كل خنزير شاشة هاتف ذكي تعرض مقاطع فيديو عمودية، وفي خضم هذه المشاهد الغريبة، يظهر المدير التنفيذي لشركة OpenAI، سام ألتمان، بأسلوب مخيف وكأنه يحدق مباشرة في المشاهد، متسائلاً: “هل تستمتع خنازيري بالطعام؟”.
ظهور ألتمان المتعدد والمفاجئ
لم يقتصر ظهور ألتمان على هذا المشهد فحسب، بل استمر في الظهور بمقاطع أخرى مدهشة أثناء تصفح التطبيق، فقد شوهد وهو يقف في حقل يعج بشخصيات بوكيمون، أو يقدم المشروبات لبيكاتشو وإريك كارتمن في مقهى ستاربكس، إلى جانب مشاهد أخرى لسرقته وحدات معالجة رسومات (GPUs) من متجر تارجت، مما أثار دهشة واستغراب المستخدمين.
تقنية Deepfake و”الظهور الخاص”
يتميز تطبيق “سورا” بخاصية فريدة تمكن المستخدمين من إنشاء “ظهور خاص” (Cameo) لأنفسهم، وذلك بالاعتماد على بياناتهم البيومترية، هذه الميزة تتيح إنتاج مقاطع فيديو عميقة (Deepfake) قادرة على دمج شخصيات مشهورة أو حتى المستخدم ذاته في سياقات ومواقف خيالية ومتنوعة.
قضايا حقوق الملكية الفكرية
على الرغم من أن “سورا” يمنح المستخدمين القدرة على التحكم في من يستطيع استخدام مقاطع الفيديو التي ينشئونها، إلا أن هذه الميزة أثارت مخاوف جدية بشأن احتمالية انتهاك حقوق الملكية الفكرية، فالتطبيق يسمح بإنشاء المحتوى المرئي دون الحصول على موافقة مسبقة من أصحاب الحقوق الأصليين، الأمر الذي قد يفتح الباب أمام تحديات قانونية معقدة في المستقبل القريب.
انتقادات أخلاقية وتحديات لحقوق النشر
من جهة أخرى، لم يسلم تطبيق “سورا” من سهام الانتقادات الأخلاقية، فقد عمد بعض المستخدمين إلى استغلال خاصية “ظهور” سام ألتمان لإنشاء مقاطع فيديو تسخر من التطبيق نفسه، بل وتتحدى صراحة قوانينه المتعلقة بحقوق الطبع والنشر، مما يضع التساؤلات حول استخدام هذه التقنية في سياقات غير مسؤولة.
تساؤلات حول الأمن الرقمي والمجتمع
على الرغم من مساعي سام ألتمان الحثيثة لعرض التطبيق كأداة إبداعية آمنة وغير خطيرة، إلا أن العديد من المستخدمين شرعوا في تجاوز حدود “سورا” وتحدي قدراته، الأمر الذي يثير تساؤلات عميقة حول التأثيرات المحتملة لهذه التقنيات على الأمن الرقمي للمستخدمين والمجتمع ككل.
التحديات الأخلاقية ومستقبل الذكاء الاصطناعي
في حين تسعى OpenAI جاهدة للتأكيد على التزامها الثابت بالسلامة والأمان، من خلال توفير أدوات الرقابة الأبوية وطرح أسئلة على المستخدمين حول تأثير استخدام التطبيق على حالتهم المزاجية، فإن “سورا” قد يكون بالفعل قد فتح آفاقًا واسعة لمخاوف جديدة تتعلق بالاستخدامات السلبية للذكاء الاصطناعي، بما في ذلك نشر المعلومات المضللة أو توظيفه في أغراض ترفيهية تفتقر إلى المسؤولية الأخلاقية.