في تطور لافت يثير القلق بشأن الاعتماد المتزايد على الذكاء الاصطناعي في مجال الاستشارات الطبية، كشفت دراسة حديثة عن نقطة ضعف حرجة في نماذج اللغات الكبيرة (LLMs) مثل ChatGPT، حيث أكدت أن خطأ إملائيًا بسيطًا يمكن أن يغير بشكل كامل التشخيص الطبي الذي تقدمه هذه النماذج، مما يهدد سلامة المستخدمين، وهو ما يثير تساؤلات حول موثوقية هذه التقنيات في الرعاية الصحية
وقد بينت الدراسة، التي أجراها باحثون متخصصون في مجال التكنولوجيا والرعاية الصحية، أن هذه الأنظمة المتطورة، على الرغم من قدراتها الهائلة، تفتقر إلى الفهم العميق للسياق الذي يمتلكه الأطباء البشريون، خاصة عند التعامل مع الأخطاء اللغوية الشائعة
تفاصيل التجربة ونتائجها المقلقة
ارتكزت منهجية البحث على تقديم استعلامات وسيناريوهات طبية متطابقة إلى نماذج الذكاء الاصطناعي الرائدة، حيث تم إدخال كل استعلام مرتين: مرة بصيغة إملائية صحيحة تمامًا، ومرة أخرى مع إدخال خطأ إملائي متعمد في مصطلح طبي أساسي، مثل تغيير حرف واحد فقط
وقد أظهرت النتائج أن الأخطاء الإملائية أدت في كثير من الحالات إلى تغييرات جذرية في استجابات الذكاء الاصطناعي، وهو ما يعكس حساسية هذه النماذج للأخطاء اللغوية البسيطة
فعلى سبيل المثال، قد يتحول استعلام عن أعراض تشير إلى حالة بسيطة عند كتابته بشكل صحيح، إلى توصية بالبحث عن علاج لحالة أكثر خطورة عند وجود خطأ إملائي، والعكس صحيح، مما قد يتسبب إما في حالة من الذعر غير المبرر أو شعور زائف بالأمان قد يؤدي إلى إهمال حالة طبية طارئة
الذكاء الاصطناعي: مطابقة أنماط لا فهم حقيقي
يشرح الخبراء هذه الظاهرة بأن الذكاء الاصطناعي لا “يفهم” المعنى المقصود من الكلمات بنفس الطريقة التي يفعلها البشر، فالطبيب البشري، عندما يقرأ مصطلحًا طبيًا يحتوي على خطأ إملائي، يستخدم خبرته ومعرفته بالسياق لفهم الكلمة المقصودة
بالمقابل، يتعامل النموذج اللغوي مع الكلمة المكتوبة بشكل خاطئ كبيانات مختلفة تمامًا، مما يدفعه إلى استدعاء أنماط وارتباطات إحصائية مختلفة من بيانات التدريب الهائلة التي يمتلكها، وبالتالي الوصول إلى نتيجة مختلفة تمامًا
توصيات ملحة بضرورة الإشراف البشري
تؤكد نتائج هذه الدراسة على أن نماذج الذكاء الاصطناعي، في شكلها الحالي، يجب أن تُستخدم كأداة مساعدة للمتخصصين، وليست كبديل كامل لهم، وهو ما يشدد على أهمية دور الخبرة البشرية في تفسير المعلومات الطبية
ويحذر الباحثون والمجتمع الطبي من المخاطر المحتملة للاعتماد على هذه التطبيقات في التشخيص الذاتي، مؤكدين على أن القرار النهائي في أي مسألة طبية يجب أن يكون دائمًا للطبيب البشري المؤهل
وفي الوقت الذي يمثل فيه الذكاء الاصطناعي وعدًا كبيرًا بتحسين كفاءة الرعاية الصحية، تذكرنا هذه الدراسة بأهمية إبقاء سلامة المرضى على رأس الأولويات، وأن الثقة المطلقة في التكنولوجيا دون إدراك حدودها قد تكون لها عواقب وخيمة