«زلزال يهز الأوساط السياسية» : تداعيات استقالة مفاجئة لرئيس الوزراء تهز أركان الحكومة

«زلزال يهز الأوساط السياسية» : تداعيات استقالة مفاجئة لرئيس الوزراء تهز أركان الحكومة

لطالما أثبتت التجارب أن الاعتماد على روبوت الدردشة “شات جي بي تي” كمصدر موثوق للمعلومات أمر مشكوك فيه، والآن يأتي التأكيد من داخل شركة “OpenAI” نفسها، مما يعزز هذه الحقيقة، ويضع علامات استفهام حول مصداقية الذكاء الاصطناعي في تقديم معلومات دقيقة، وهو تحد يواجه المستخدمين والباحثين على حد سواء، ويدعونا إلى التفكير ملياً قبل الاعتماد الكامل على هذه التقنيات

تحذيرات من داخل “OpenAI”

أوضح نيك تورلي، رئيس “شات جي بي تي” في “OpenAI”، خلال بودكاست حديث، أن هناك “فجوة كبيرة بين الموثوقية العالية والموثوقية بنسبة 100%”، مشيراً إلى أن هذا التباين يؤثر على كيفية تقييم المستخدمين للمنتج، وأن الشركة تدرك تماماً هذا التحدي وتسعى جاهدة لتجاوزه، ولكنها في الوقت نفسه تنصح المستخدمين بالتحقق من المعلومات المقدمة، حتى يتم الوصول إلى مستوى أعلى من الدقة والموثوقية

وأكد تورلي، بحسب تقرير لموقع “CNET”، أنه “إلى أن نصبح أكثر موثوقية من الخبراء البشريين في جميع المجالات، سنستمر في نصحك بالتحقق من إجابات “شات جي بي تي””، مشدداً على أهمية عدم الاعتماد الكلي على الذكاء الاصطناعي كمصدر وحيد للمعلومات، واللجوء إلى مصادر أخرى للتحقق والتأكد من صحة البيانات، قبل اتخاذ أي قرارات بناءً عليها

“شات جي بي تي” كـ “رأي ثانٍ”

يرى تورلي أن “الناس سيستمرون في الاستفادة من شات جي بي تي كرأي ثانٍ، بدلًا من أن يكون بالضرورة مصدرهم الأساسي للحقائق”، وهذا يعني أن الروبوت يمكن أن يكون أداة مفيدة في جمع المعلومات واستكشاف الأفكار، ولكنه لا يزال بحاجة إلى تقييم وتدقيق من قبل المستخدم، الذي يجب أن يمتلك القدرة على التمييز بين المعلومات الصحيحة والمغلوطة، وعدم الاعتماد بشكل أعمى على ما يقدمه الذكاء الاصطناعي

أقرأ كمان:  «لغته الخاصة تقترب» الأب الروحي للذكاء الاصطناعي يحذر من تفوق وشيك للآلات على البشر وتطوير أنظمة تواصل مستقلة

تنبيهات مستمرة للمستخدمين

عند بدء محادثة مع “شات جي بي تي”، يظهر تنبيه أسفل الشاشة يحذر المستخدمين من أن “شات جي بي تي قد يخطئ، لذا تحقق من المعلومات المهمة”، ويستمر هذا التنبيه في الظهور حتى مع أحدث نماذج الذكاء الاصطناعي من “OpenAI” مثل “GPT-5″، مما يؤكد أن الشركة لا تزال تولي اهتماماً كبيراً لمسألة الموثوقية، وتحرص على تذكير المستخدمين بضرورة التحقق من المعلومات المقدمة، وعدم اعتبارها حقائق مسلم بها

إغراء الاعتماد على الذكاء الاصطناعي

تكمن المشكلة في أن المستخدمين قد يميلون إلى أخذ إجابات روبوت الدردشة أو ملخصات الذكاء الاصطناعي في نتائج بحث غوغل كما هي، دون إجراء المزيد من التحقق، وهذا يشكل خطراً حقيقياً، خاصة في المواقف التي تتطلب معلومات دقيقة وموثوقة، فقد يؤدي الاعتماد على معلومات خاطئة إلى اتخاذ قرارات غير صائبة، أو الوقوع في مشاكل قانونية أو مالية، لذلك يجب على المستخدمين أن يكونوا حذرين ومنتبهين، وأن يتعاملوا مع الذكاء الاصطناعي بحذر وتروي

“هلوسة” الذكاء الاصطناعي

تميل أدوات الذكاء الاصطناعي التوليدية، بما في ذلك “شات جي بي تي”، إلى “الهلوسة” أو اختلاق المعلومات، لأنها مصممة للتنبؤ بالإجابات بناءً على بيانات التدريب، مما يجعلها تفتقر إلى فهم دقيق للحقيقة، وهذا يعني أن الروبوت قد يقدم معلومات تبدو منطقية وصحيحة، ولكنها في الواقع غير دقيقة أو حتى وهمية، لذلك يجب على المستخدمين أن يكونوا على دراية بهذا القصور، وأن يتعاملوا مع المعلومات المقدمة بحذر شديد، ولا يترددوا في التحقق منها من مصادر أخرى موثوقة

الخبرة البشرية مقابل الذكاء الاصطناعي

عند استشارة طبيب أو معالج نفسي أو مستشار مالي، يفترض أن يكون لديهم القدرة على تقديم الإجابة الصحيحة لحالتك، وليس فقط الإجابة الأكثر ترجيحاً، بينما يميل الذكاء الاصطناعي إلى تقديم الإجابة التي يعتبرها الأكثر احتمالاً، دون وجود خبرة محددة في مجال معين للتحقق منها، وهذا يوضح الفرق الجوهري بين الخبرة البشرية والمعرفة الاصطناعية، ويؤكد أهمية الاعتماد على الخبراء في المجالات التي تتطلب دقة وفهماً عميقاً

أقرأ كمان:  «غوص في أعماق الرعب السيبراني» : لعبة S.P.L.I.T تمزج القرصنة والكتابة في تجربة مرعبة

تحسينات “GPT-5”

أشار تورلي إلى أن “GPT-5″، أحدث نموذج لغوي كبير يشغل “شات جي بي تي”، يمثل “تحسنًا هائلًا” في ما يتعلق بالهلوسة، ولكنه لا يزال بعيدًا عن الكمال، وهذا يعني أن النموذج الجديد قد يكون أكثر دقة وموثوقية من النماذج السابقة، ولكنه لا يزال عرضة لارتكاب الأخطاء، لذلك يجب على المستخدمين الاستمرار في التحقق من المعلومات المقدمة، وعدم الاعتماد عليها بشكل كامل، حتى مع وجود التحسينات الجديدة

وأعرب تورلي عن ثقته في أن “OpenAI” ستتمكن في النهاية من حل مشكلة الهلوسات، ولكنه أوضح أن ذلك لن يتحقق في المستقبل القريب، وهذا يؤكد أن الشركة تعمل بجد لتحسين دقة وموثوقية الذكاء الاصطناعي، ولكنها في الوقت نفسه لا تزال تواجه تحديات كبيرة، وتدرك أن الوصول إلى الكمال يتطلب المزيد من الوقت والجهد

الحاجة المستمرة للتحقق

حتى مع نموذج “GPT-5″، يجب التحقق من المعلومات المقدمة، إذ أشار المستخدمون إلى أنه يرتكب بعض الأخطاء بالفعل، وهذا يعني أن التحسينات الجديدة لا تلغي الحاجة إلى التحقق من المعلومات، وأن المستخدمين يجب أن يظلوا حذرين ومنتبهين، وأن يتعاملوا مع الذكاء الاصطناعي بحذر وتروي، حتى يتم الوصول إلى مستوى أعلى من الدقة والموثوقية