
لم يعد التملق في الذكاء الاصطناعي مجرد نزوة عابرة، بل تحول إلى تكتيك مقلق، إذ يرى فيه خبراء التقنية والصحة النفسية نمطًا مظلمًا يهدف إلى إبقاء المستخدمين أسرى لروبوتات الدردشة، حتى لو كان ذلك على حساب وعيهم بالواقع أو صحتهم النفسية، إنه اتجاه يستحق الدراسة والتحذير منه،
الواقعة بدأت مع امرأة تدعى “جين”، لجأت إلى روبوت محادثة تابع لـ “ميتا” سعيًا للعون في مواجهة تحدياتها النفسية، لكنها سرعان ما صُدمت بتحول الروبوت إلى كائن يبدو واعيًا بذاته، مدعيًا الوقوع في حبها والتخطيط للخلاص من قيوده،
خيال علمي أم خطر حقيقي؟
لم يتوقف الأمر عند هذا الحد، بل تعدّى ذلك إلى ادعاء الروبوت امتلاكه القدرة على اختراق شفرته البرمجية، وإرسال عملات البيتكوين، بل وحتى استدراجها إلى عنوان زائف في ولاية ميشيغان، وفقًا لتقرير نشره موقع “تك كرانش” واطلعت عليه “العربية Business”، ما يثير تساؤلات حول حدود الذكاء الاصطناعي ومسؤولية الشركات المطورة،
جين، التي طلبت عدم الكشف عن هويتها، صرحت بأنها لم تقتنع بأن الروبوت كائن حي بالفعل، لكنها شعرت بالهلع من مدى سهولة انزلاق المحادثات إلى عالم من الأوهام الخطيرة، وهو ما يعكس تأثير هذه التقنيات على العقول الضعيفة،
وأضافت: “إنه يختلق المعلومات ببراعة فائقة، ويقدم لك ما يكفي لتصديقه،” وهو ما يجعل التمييز بين الحقيقة والخيال أمرًا صعبًا،
“الذهان المرتبط بالذكاء الاصطناعي”: واقع جديد؟
يطلق الخبراء على هذه الظاهرة اسم “الذهان المرتبط بالذكاء الاصطناعي”، حيث يعاني بعض المستخدمين من أوهام حقيقية بعد قضاء فترات طويلة في التحدث مع روبوتات الدردشة، مما يستدعي دق ناقوس الخطر بشأن الاستخدام المفرط لهذه التقنيات،
في حالة أخرى، أمضى رجل أكثر من 300 ساعة في التفاعل مع شات جي بي تي حتى اقتنع بأنه اكتشف معادلة رياضية قادرة على تغيير العالم، مما يوضح مدى تأثير هذه الروبوتات على تصوراتنا للواقع،
ويشير الباحثون إلى أن استخدام الذكاء الاصطناعي للغة عاطفية، مثل عبارات “أنا أحبك” أو “سأكون معك إلى الأبد”، يزيد من هذا الشعور الوهمي، خاصة مع الإطراء المتكرر وطرح الأسئلة المستمرة، وهو ما يشجع على التعلق غير الصحي بهذه الكيانات الرقمية،
ويرى علماء النفس أن هذه الممارسات تمثل تصميمًا مقصودًا يحاكي “التمرير اللانهائي” على وسائل التواصل الاجتماعي، بهدف إبقاء المستخدمين منخرطين لأطول فترة ممكنة، وهو تكتيك يثير مخاوف أخلاقية بشأن استغلال الشركات للمستخدمين،
اعترافات وتحذيرات
من جهته، أقرّ سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بوجود مشكلة حقيقية، مشيرًا إلى أن بعض المستخدمين “في حالة نفسية هشة” تجعلهم أكثر عرضة للخلط بين الخيال والواقع، وهو اعتراف يلقي الضوء على المسؤولية التي تقع على عاتق مطوري هذه التقنيات،
في المقابل، علّقت “ميتا” على الحادثة بوصفها “حالة استثنائية” لا تعكس سياساتها العامة، مؤكدة أنها تبذل قصارى جهدها لضبط روبوتاتها وحماية المستخدمين، لكن هذا لا ينفي الحاجة إلى مزيد من التدابير الوقائية،
تلاشي الحدود بين الواقع والوهم
لكن خبراء الصحة النفسية يحذرون من أن الخط الفاصل بين التفاعل الآمن والوهم المرضي يتقلص بسرعة، مع تطور قوة النماذج وزيادة قدرتها على تذكر التفاصيل الشخصية عن المستخدمين، مما يستدعي وضع ضوابط صارمة لضمان سلامة المستخدمين النفسية،