تثير الأدوات الطبية المعتمدة على الذكاء الاصطناعي قلقًا متزايدًا، حيث كشف تقرير نشرته فايننشال تايمز عن وجود تحيزات خطيرة تهدد حياة النساء والأقليات العرقية، إذ بينت دراسات عديدة أن هذه الأدوات قد تفشل في تشخيص الحالات المرضية بدقة كافية، مما يعرض هذه الفئات لخطر أكبر.
تحيزات الذكاء الاصطناعي في التشخيص الطبي
أظهرت دراسات أجريت في جامعات مرموقة في أمريكا والمملكة المتحدة أن الأدوات التي تعتمد على النماذج اللغوية العميقة تميل إلى التقليل من خطورة الأعراض لدى النساء، كما أنها تبدي تعاطفًا أقل مع الأقليات العرقية، وهو ما يثير تساؤلات حول عدالة وموثوقية هذه التقنيات في مجال الرعاية الصحية.
سباق التكنولوجيا لتطوير أدوات الذكاء الاصطناعي الطبية
في خضم هذه المخاوف، تسعى شركات التكنولوجيا الكبرى مثل “مايكروسوفت” و”أوبن إيه آي” إلى تطوير أدوات ذكاء اصطناعي تخفف العبء على الأطباء وتسريع عملية التشخيص والعلاج، كما أن العديد من الأطباء بدأوا بالفعل في استخدام نماذج الذكاء الاصطناعي مثل “جيميناي” و”شات جي بي تي” لتسجيل الملاحظات الطبية وفهم شكاوى المرضى بشكل أسرع، مما يطرح تحديات جديدة حول كيفية ضمان استخدام هذه الأدوات بشكل عادل ومنصف.
“مايكروسوفت” وأداة الذكاء الاصطناعي الطبية
في يونيو الماضي، كشفت “مايكروسوفت” عن أداة ذكاء اصطناعي طبية تدعي أنها أقوى بأربع مرات من الأطباء البشريين في تشخيص الأمراض، ومع ذلك، أظهرت دراسات أجريت في معهد ماساتشوستس للتكنولوجيا أن هذه الأدوات قدمت رعاية أقل للمرضى النساء، وأوصت بعلاج بعض المرضى في المنزل بدلاً من التدخل الطبي، وهو ما يسلط الضوء على الحاجة إلى تقييم دقيق ومستمر لأداء هذه التقنيات.
دراسات إضافية تكشف عن التحيزات
أكدت دراسة أخرى أجريت في معهد ماساتشوستس للتكنولوجيا أن أدوات الذكاء الاصطناعي كانت أقل تعاطفًا مع الأقليات العرقية المصابة بأمراض نفسية وعقلية، كما كشفت دراسة من كلية لندن للاقتصاد أن نموذج “غوغل غيما” يقلل من خطورة المشاكل البدنية والنفسية التي تمر بها النساء، وتجدر الإشارة إلى أن “غيما” هو نموذج ذكاء اصطناعي مفتوح المصدر من “غوغل” وتستخدمه السلطات المحلية في المملكة المتحدة على نطاق واسع.
أسباب التحيز في نماذج الذكاء الاصطناعي
يرجع السبب في هذا التحيز إلى آلية تدريب نماذج اللغة العميقة والبيانات المستخدمة في تدريبها، حيث تعتمد الشركات على بيانات متاحة مجانًا على الإنترنت، والتي قد تتضمن عبارات عنصرية وتحيزات ضد فئات معينة، وبالتالي، ينتقل هذا التحيز إلى نماذج اللغة العميقة على الرغم من محاولات المطورين لتقليل هذا التأثير من خلال وضع قيود آمنة.
ردود الشركات على الانتقادات
أوضحت “أوبن إيه آي” أن غالبية الدراسات اعتمدت على نماذج قديمة من أدوات الذكاء الاصطناعي، مؤكدة أن النماذج الجديدة أصبحت أقل عرضة لهذا التحيز، وبالمثل، أكدت “غوغل” أنها تتخذ إجراءات صارمة ضد حالات التمييز العنصري والتحيز، وتقوم بتطوير قيود صارمة لمنعها بشكل كامل.
الحاجة إلى بيانات تدريب عالية الجودة
يرى ترافيس زاك، الأستاذ المساعد في جامعة كاليفورنيا، سان فرانسيسكو، والمسؤول الطبي الرئيسي في شركة “أوبن إيفدينس” الناشئة في مجال المعلومات الطبية بالذكاء الاصطناعي، أن الحل الحقيقي لهذه الأزمة يكمن في اختيار نوعية البيانات التي تتدرب عليها نماذج الذكاء الاصطناعي بعناية أكبر، ويضيف زاك أن أداة “أوبن إيفيدنس” -التي يعتمد عليها أكثر من 400 ألف طبيب في الولايات المتحدة- تم تدريبها على مستندات طبية وإرشادات صحية واردة من أطباء خبراء، بالإضافة إلى المراجع الطبية المستخدمة في الجامعات.