«ابتكار تخيلي» ذكاء اصطناعي من “غوغل” يبدع عضوًا غير موجود في التشريح البشري

«ابتكار تخيلي» ذكاء اصطناعي من “غوغل” يبدع عضوًا غير موجود في التشريح البشري

في تطور مثير للدهشة، وقع نظام “Med-Gemini” للرعاية الصحية الذكي، التابع لشركة غوغل، في خطأ جسيم أثار استغرابًا واسعًا في الأوساط الطبية، هذا الخطأ يثير تساؤلات حول مدى الاعتماد على الذكاء الاصطناعي في المجالات الحساسة، مثل الرعاية الصحية.

خطأ تشريحي فادح

خلال تحليل لمسح دماغي، زعم نظام الذكاء الاصطناعي وجود خلل في تركيب يُدعى “basilar ganglia”، الأمر الصادم هو أن هذا التركيب غير موجود أصلًا في جسم الإنسان، هذا الخطأ يكشف عن محدودية الفهم التشريحي لدى النظام.

الخلط بين المصطلحات الطبية

يُرجح أن النظام كان يستهدف “basal ganglia” أو “العقد القاعدية”، وهي جزء حقيقي في الدماغ يلعب دورًا في التحكم بالحركة والعواطف، لكنه وقع في فخ الخلط مع “basilar artery” أو “الشريان القاعدي”، وهو كيان مختلف تمامًا، وفقًا لتقرير نشره موقع “The Verge”، هذا الخلط يوضح الحاجة إلى تدقيق بشري دقيق.

أصل الخطأ: دمج المصطلحات

الاسم الذي ابتكره الذكاء الاصطناعي “basilar ganglia” يظهر أنه توليفة بين مصطلحي “العقد القاعدية” و”الشريان القاعدي” باللغة الإنجليزية، هذا الدمج غير المنطقي يسلط الضوء على كيفية معالجة النظام للمعلومات الطبية.

عواقب وخيمة محتملة

على الرغم من أن هذا الخطأ قد يبدو بسيطًا، إلا أنه يحمل في طياته عواقب وخيمة في المجال الطبي، أي خطأ في التشخيص أو العلاج قد يؤدي إلى تدهور صحة المريض، أو حتى الوفاة.

الخطأ يظهر في الأوراق الرسمية

المثير للقلق أن هذا الخطأ ظهر في ورقة بحثية نشرتها غوغل لعرض إمكانات “Med-Gemini”، وكذلك في منشور على مدونة الشركة، هذا يشير إلى وجود خلل في عملية المراجعة والتدقيق الداخلي.

اكتشاف متأخر وتصحيح سري

لم يلحظ أحد في غوغل هذا الخطأ في البداية، إلى أن قام طبيب الأعصاب برايان مور باكتشافه وإبلاغ الشركة، قامت غوغل بتعديل منشور المدونة خفية، واستبدلت “basilar ganglia” بـ “basal ganglia”، دون الإشارة إلى التعديل، بينما ظلت الورقة البحثية على حالها دون تحديث.

أقرأ كمان:  «مستقبلك ينتظر!»: مدارس مبارك كول.. فرصة ذهبية لطلاب الشهادة الإعدادية 2025/2026

“خطأ مطبعي” غير مقنع

بررت غوغل الأمر بأنه مجرد خطأ مطبعي، إلا أن العديد من الأطباء لم يقتنعوا بهذا التفسير، معتبرين إياه مثالًا صارخًا على “هلوسة الذكاء الاصطناعي”، حيث يختلق النظام معلومات ويقدمها على أنها حقيقة.

الاختبار في المستشفيات يثير القلق

الأمر الأكثر إثارة للجزع هو أن غوغل بدأت بالفعل في اختبار هذا الذكاء الاصطناعي في بيئات المستشفيات الحقيقية، نموذج آخر من نماذجها، “MedGemma”، أظهر أيضًا علامات خلل، إذ قدم تشخيصًا صحيحًا عند طرح سؤال مفصل، لكنه أغفل المشكلة تمامًا عند طرح سؤال أبسط.

الحاجة إلى إشراف بشري دقيق

أكد الخبراء أن الذكاء الاصطناعي قد يكون مفيدًا في الرعاية الصحية، لكنه يتطلب إشرافًا دقيقًا، هذه الأدوات تبدو واثقة حتى عندما تكون على خطأ، مما يستدعي الحذر والتحقق المستمر.