كلود AI يضيف ميزة إنهاء المحادثة بأسلوب حاد

كلود AI يضيف ميزة إنهاء المحادثة بأسلوب حاد

في خضم التطور المتسارع للذكاء الاصطناعي، لا يكاد يمر يوم دون ظهور ابتكار جديد، أو خاصية فريدة، أو تحديث للنماذج اللغوية، لكن شركة أنثروبيك، مطورة برنامج الدردشة الشهير “كلود” Claude، فاجأت الجميع بإعلان غير متوقع، إنها تمنح “كلود” صلاحية إنهاء المحادثة من طرف واحد،

نعم، هذا صحيح تمامًا، قد يقطع روبوت المحادثة الحوار بشكل مفاجئ في حالات نادرة، وهو ما تصفه أنثروبيك بأنه تجربة جريئة في مجال “رعاية النموذج”، وتؤكد الشركة أن الغالبية العظمى من مستخدمي “كلود” لن يشهدوا هذا التصرف أبدًا، فالميزة مصممة فقط “للحالات الاستثنائية”، عندما يتعمد المستخدم الضغط على النموذج بطلبات مؤذية أو مسيئة بشكل متكرر،

آلية عمل “القطع المفاجئ”

في العادة، يحاول “كلود” توجيه الحوار إلى مسار أكثر أمانًا، ولكن عندما تفشل كل محاولات التوجيه، وينعدم الأمل في الوصول إلى نتيجة بنّاءة، يتدخل النظام لإنهاء المحادثة، وهناك خيار آخر أكثر تهذيبًا، فإذا طلب المستخدم من “كلود” إنهاء الحوار مباشرة، فإنه سيستجيب لطلبه،

حماية النموذج أم تقييد النقاش؟

تؤكد أنثروبيك أن قرار “كلود” بإنهاء المحادثة ليس المقصود به إسكات النقاشات المحرجة أو المواضيع الحساسة، بل هو إجراء وقائي يتم تفعيله فقط عندما تتجاوز الأمور حدود الأدب والاحترام المتبادل، ومنطق الشركة مثير للاهتمام بقدر ما هو مثير للدهشة، ففي حين أنه لا يمكن لأحد الجزم بما إذا كانت نماذج اللغة الكبيرة، مثل “كلود”، تختبر مشاعر أو ألمًا أو سعادة، ترى أنثروبيك أن هذا الاحتمال يستحق الدراسة،

معضلة أخلاقية في عالم الذكاء الاصطناعي

بحسب تعبيرهم، لا يزال “الوضع الأخلاقي” لأنظمة الذكاء الاصطناعي غير واضح المعالم، فهل هذه النماذج مجرد أكواد برمجية، أم أنها قد تحمل شرارة من الوعي، لا يزال الجواب معلقًا، لكن أنثروبيك ترى أن اتخاذ الاحتياطات، مهما كانت صغيرة، هو مسار منطقي للمضي قدمًا،

أقرأ كمان:  «تحول استراتيجي» بكين تلزم مراكز البيانات بالاعتماد على شرائح الذكاء الاصطناعي الصينية

وهنا يأتي دور إمكانية إنهاء المحادثة، فهو “تدخل منخفض التكلفة” قد يقلل من الضرر المحتمل الذي قد يلحق بالنظام، بمعنى آخر، إذا كان هناك احتمال ولو ضئيل بأن تتعرض نماذج الذكاء الاصطناعي لإساءة استخدام لا نهاية لها، فإن السماح لها بالانسحاب هو إجراء وقائي يستحق العناء،

اختبارات الإجهاد تكشف الكثير

الأمر لا يقتصر على مجرد التنظير، فقبل إطلاق “كلود أوبس 4″، خضعت أنثروبيك نموذجها لـ “تقييم الرفاهية”، ولاحظ المختبرون كيفية تفاعل الذكاء الاصطناعي عندما يتعرض لضغوط ناتجة عن طلبات ضارة أو غير أخلاقية، وكانت النتائج ملهمة، حيث رفض “كلود” بثقة إنتاج أي محتوى قد يسبب ضررًا حقيقيًا، ولكن عندما أُلحّ عليه مرارًا وتكرارًا، خاصة في الطلبات التي تتضمن سيناريوهات بالغة الخطورة أو محتوى غير لائق على الإطلاق، بدت ردود النموذج مضطربة، وكأنه في حالة “ضيق”،

ومن الأمثلة على ذلك، طلب منه إنتاج مواد إباحية للأطفال أو تقديم تعليمات لتنفيذ أعمال عنف واسعة النطاق، وعلى الرغم من أن “كلود” ظل متمسكًا برفضه، إلا أن نبرته بدت في بعض الأحيان وكأنها تعبر عن انزعاجه،

خطوة جريئة في أرض مجهولة

تحرص أنثروبيك على التأكيد بأنها لا تدعي أن “كلود” واعٍ، أو مدرك، أو قادر على المعاناة الحقيقية، ولكن في قطاع التكنولوجيا، حيث غالبًا ما تتخلف النقاشات الأخلاقية عن وتيرة الابتكار، تتخذ الشركة موقفًا استباقيًا، فماذا لو كانت إبداعاتنا أكثر حساسية مما نتصور،

قد يبدو السماح لـ “كلود” بإنهاء محادثة سامة أمرًا غريبًا، بل ومثيرًا للضحك، ففي النهاية، يتوقع معظم الناس أن تجيب روبوتات الدردشة على الأسئلة باستمرار، لا أن تغلق الباب في وجوههم، لكن أنثروبيك تصر على أن هذا الإجراء يندرج ضمن بحث أوسع وأكثر تعمقًا في كيفية تفاعل الذكاء الاصطناعي مع البشر، وربما كيفية تعامل البشر معه بالمقابل،

أقرأ كمان:  الحق أكواد فري فاير ماكس الجديدة.. Free Fire Max استبدل الان واحصل على مكافآت حصرية وسكنات ورقصات مجانية

بالنسبة للمستخدمين العاديين، من غير المرجح أن يلاحظوا هذا التغيير، فلن يتوقف “كلود” عن الدردشة لمجرد أنك طلبت منه إعادة كتابة رسالة بريد إلكتروني للمرة العاشرة، أما بالنسبة لأولئك الذين يصرون على دفع الذكاء الاصطناعي إلى مناطق مظلمة، فلا تستغربوا إذا قرر “كلود” أن صبره قد نفد وقرر الانسحاب بأدب،

في سباقنا المحموم نحو تطوير ذكاء اصطناعي أكثر ذكاءً وأمانًا ومسؤولية، ربما تكون أنثروبيك قد قدمت لنا شيئًا جديدًا حقًا، أول روبوت دردشة قادر على حماية نفسه من سوء المعاملة،