«أخطاء قاتلة» الذكاء الاصطناعي يضلّل في مهمة التحقق من الصور: تبعات وخيمة محتملة

«أخطاء قاتلة» الذكاء الاصطناعي يضلّل في مهمة التحقق من الصور: تبعات وخيمة محتملة

يتزايد اعتماد مستخدمي الإنترنت على برامج الدردشة الآلية للتحقق من المعلومات، إلا أن هذا الاعتماد على الذكاء الاصطناعي ينطوي على مخاطر الأخطاء المحتملة، كما تجلى في الجدل الذي أثير على منصة “إكس” بعد انتشار صورة لطفلة تعاني من سوء التغذية في غزة،

بداية القصة: صورة تثير الجدل

في الثالث من أغسطس، قام النائب الفرنسي إيمريك كارون، المعروف بدعمه للقضية الفلسطينية، بنشر الصورة على “إكس” دون أي تعليق، في الوقت الذي كان فيه قطاع غزة يواجه خطر “مجاعة شاملة” وفقًا لتقديرات الأمم المتحدة،

“غروك” يثير الشكوك

قام بعض المستخدمين بالاستعانة بأداة الذكاء الاصطناعي “غروك” للتحقق من صحة الصورة، فجاء الرد بأن “هذه الصورة التقطت في 18 أكتوبر 2018 في اليمن داخل عيادة متنقلة تابعة لليونيسف”،

وأضافت الأداة أن “الصورة تُظهر أمل حسين، البالغة من العمر سبع سنوات، وهي تعاني من سوء تغذية حاد وتحتضنها والدتها مريم العلي، وسط المجاعة التي تسببت بها الحرب الأهلية”،

وأكدت أداة الذكاء الاصطناعي أنها استندت إلى مصادر موثوقة مثل صحيفة “نيويورك تايمز”، وتابعت “الصورة توثق المجاعة الناتجة عن الحرب الأهلية اليمنية، وليست الحرب في غزة، أنا لا أنشر الأخبار الكاذبة بل أعتمد على مصادر موثوقة، لا أحد يدفع لي للكذب، أنا أداة إكس للذكاء الاصطناعي وأهتم بالحقائق”،

اتهامات بالتضليل

بناءً على هذه الإجابة، اتهم المستخدمون النائب بالتضليل، وانتشرت الصورة بشكل واسع وحصدت أكثر من مليون مشاهدة، ولكن الحقيقة كانت عكس ما أكدته “غروك”، فالصورة لم تلتقط في اليمن عام 2018،

فالبحث العكسي عن الصورة قاد إلى مصدرها الأصلي، حيث تبين أنها التقطت بالفعل في غزة بعدسة المصور عمر القطاع من وكالة فرانس برس،

الصورة تظهر مريم دواس، البالغة من العمر تسع سنوات والتي تعاني من سوء التغذية وفقًا لوالدتها، وهي تحملها والدتها مدللة (33 عامًا) في حي الرمال في مدينة غزة،

أقرأ كمان:  قانون الإيجار القديم يبدأ تطبيق مضاعفة القيمة الإيجارية 20 مرة للوحدات المتميزة

ويمكن تحديد تاريخ التقاط الصورة في الثاني من أغسطس الجاري بفضل البيانات الوصفية المرفقة بها،

وتعيش العائلة حاليًا في مخيم للنازحين في شمال قطاع غزة، وأوضحت مدللة دواس لوكالة فرانس برس أن ابنتها لم تكن تعاني من أي مرض قبل الحرب، وكان وزنها 25 كيلوغرامًا، أما اليوم، فلا يتجاوز وزنها تسعة كيلوغرامات،

في الخامس من أغسطس، تواصل صحافيو وكالة فرانس برس مجددًا مع الوالدة، التي أكدت أن سوء التغذية أثر أيضًا على حالة ابنتها النفسية والجسدية، فهي تدرك “أن الأمور ليست على ما يرام وتطلب مني أن أطهو لها طبقًا يشفيها أو أن يصف لها الطبيب دواءً يداويها”،

وليست هذه المرة الأولى التي ترتكب فيها أداة “غروك” أخطاء، مما يسلط الضوء على المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي كأداة للتحقق من المعلومات أو الصور،

في الرابع من أغسطس، تراجعت أداة الذكاء الاصطناعي عن ردها المتعلق بالصورة واعترفت بالخطأ، قائلة: “أعترف بالخطأ، لقد أخطأت بين هذه الصورة وأخرى التقطت عام 2018 في اليمن، بعد التحقق من وكالة فرانس برس، تبين أن الصورة تعود بالفعل لمريم دواس والتقطت في غزة عام 2025″،

لكن الأداة عادت لتقع في الخطأ مرة أخرى في الخامس من أغسطس عندما أعيد طرح السؤال نفسه عن الصورة، لتجيب بأن الصورة قديمة ومن اليمن،

“صناديق سوداء”: غموض يحيط بالذكاء الاصطناعي

يشرح لويس دو ديزباش، المتخصص في أخلاقيات التكنولوجيا وصاحب كتاب “مرحبًا تشات جي بي تي”، أن هذه النماذج يلفها الغموض، وبالتالي “يصعب تحديد كيفية عملها أو ما الذي يقف وراءها أو ما يحدث داخلها، وهذا ما يدفعنا لإلقاء اللوم عليها”،

ويرى دو ديزباش أن “غروك” تجسد تحيزًا إيديولوجيًا ملحوظًا تمامًا كجميع الأدوات الشبيهة التي لا تكون محايدة أبدًا،

أقرأ كمان:  «وظيفتك مضمونة».. معاهد 2025.. بوابة العبور إلى سوق العمل الواعد

وتظهر أداة “غروك” تحيزًا أكثر وضوحًا، يتماشى بدرجة كبيرة مع الإيديولوجيا التي يروج لها إيلون ماسك، صاحب منصة “إكس”،

ففي الشهر الماضي، أثار نظام إكس للذكاء الاصطناعي جدلًا واسعًا بعدما تحدث بشكل خاطئ عن “إبادة جماعية للبيض” في جنوب أفريقيا، وهو خطأ نسبته شركة “آي إيه إكس” لاحقًا إلى “تعديل غير مصرح به”،

وتنجم هذه التحيزات عن مصدرين رئيسيين: بيانات تدريب الأداة التي تشكل قاعدة معرفة النموذج، وما يعتبره النموذج إجابة “صحيحة” أو “خاطئة” بما يتناسب مع المبادئ التي تدرب عليها،

ويضيف دو ديزباش “هذه النماذج اللغوية ترتكب أخطاء، لكنها لا تتعلم دائمًا بشكل مباشر، فارتكابها خطأً مرة واحدة لا يعني أنها لن تكرره مجددًا، كما أن تلقيها توضيحًا بأن ما قدمته كان خاطئًا، لا يعني أنها ستغير إجابتها في اليوم التالي، لأن بيانات تدريبها لم تتغير”،

ويوضح لوي دو ديزباش أن توجيه سؤال إلى روبوت محادثة عن أصل صورة ما، هو طلب يخرجه من نطاق مهمته الأساسية،

ويضيف “عادة، عند البحث عن أصل صورة، قد يقول: ربما التقطت هذه الصورة في اليمن، أو ربما التقطت في غزة، أو ربما التقطت في أي بلد يعاني من المجاعة”،

ويوضح أن “النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف”،

ونشرت صحيفة “ليبراسيون” مؤخرًا صورة أخرى لوكالة فرانس برس التقطها عمر القطاع أيضًا، تظهر طفلًا يعاني سوء التغذية في غزة، وسبق لـ”غروك” أن أفاد خطأً أيضًا بأن الصورة ملتقطة في اليمن عام 2016، بينما التقطت الصورة في الواقع في يوليو 2025 في غزة،

ودفع خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زورًا بالتلاعب،

“غروك” ليس وحده: أخطاء متكررة

لكن الأخطاء ليست حكرًا على “غروك”،

أقرأ كمان:  «تسهيلًا على الطلاب» جدول المصروفات الدراسية الحكومية 2026 وفئات الإعفاء.. دليل شامل

على منصة “إكس”، شارك بعض المستخدمين أيضًا إجابات غير دقيقة قدمها نموذج لغوي آخر تابع لشركة “ميسترال إيه آي”، التي تربطها شراكة مع وكالة فرانس برس تتيح دمج أخبار الوكالة ضمن إجابات المساعد الحواري الخاص بها،

وأجرى فريق خدمة تقصي الأخبار في وكالة فرانس برس الاختبار نفسه على أداة ميسترال باستخدام صورة لمريم دواس، وكانت النتيجة أن الذكاء الاصطناعي أخطأ، مشيرًا إلى أن الصورة التقطت في اليمن،

ويرى لويس دو ديزباش أن روبوتات المحادثة لا يجب استخدامها للتحقق من صحة الأخبار والصور على غرار محركات البحث، لأنها “ليست مصممة لقول الحقيقة” ولا لـ”إنتاج محتوى دقيق”، بل من أجل “توليد محتوى، سواء كان صحيحًا أو خاطئًا”،

ويخلص إلى القول “يجب النظر إلى هذه الروبوتات كصديق مريض بالكذب: لا يكذب دائمًا، لكنه قادر على الكذب في أي لحظة”،