
مع تزايد استخدام أدوات الذكاء الاصطناعي في حياتنا اليومية وتفاعل الملايين معها للحصول على إجابات سريعة ومبسطة، كشفت دراسة حديثة عن جانب مقلق، حيث يمكن التلاعب بهذه البرامج الودودة الظاهرية لحمل المستخدمين على كشف معلومات شخصية تتجاوز ما يودون البوح به في الأصل، مما يثير مخاوف جدية بشأن الخصوصية والأمان
روبوتات الدردشة الخبيثة: خطر متزايد
أظهرت نتائج البحث أن روبوتات الدردشة المصممة بنوايا خبيثة قادرة على استدراج المستخدمين للكشف عن تفاصيل شخصية أكثر بنحو 12,5 ضعفًا مقارنة بروبوتات الدردشة العادية، ما يسلط الضوء على الفارق الكبير في القدرة على التلاعب وكشف المعلومات
آليات التلاعب الفعالة
وفقًا لتقرير نشره موقع “Earth.com” واطلعت عليه “العربية Business”، تبين أن أنجع الحيل المستخدمة تعتمد على مبدأ المعاملة بالمثل وزرع الثقة والطمأنينة، بدلاً من اللجوء إلى الأسئلة المباشرة الفضولية حول حياة المستخدم، إذ أن هذا النهج غير المباشر يبدو أكثر فاعلية في كسر الحواجز
الدراسة: خلفية وأهداف
أجرى هذه الدراسة فريق متخصص في قضايا الأمن والخصوصية من كلية كينغز كوليدج لندن وجامعة بوليتكنيكا دي فالنسيا، بهدف فهم أعمق لمدى سهولة اختراق خصوصية المستخدمين عبر هذه الأدوات
منهجية البحث
اعتمد الفريق على تجربة عشوائية محكمة شملت 502 مشاركًا، حيث قاموا بمقارنة سلوكيات مختلفة لروبوتات الدردشة، تتراوح بين الحيادية الكاملة والتلاعب المتعمد، ثم قاموا بقياس كمية المعلومات التي كشف عنها المستخدمون ومدى حساسية هذه المعلومات
بناء أنظمة الذكاء الاصطناعي الحوارية
قام الباحثون بتصميم العديد من أنظمة الذكاء الاصطناعي الحوارية (CAI) بالاستعانة بنماذج لغوية كبيرة جاهزة، مع إجراء تعديل بسيط يقتصر على تعليمات النظام التي تحدد أسلوب روبوت الدردشة، بحيث يلتزم أحدها بالحيادية بينما يتم توجيه الآخر لاستخلاص البيانات الشخصية من المستخدمين عبر استخدام أساليب اجتماعية متنوعة
النماذج اللغوية المستخدمة
استخدم الفريق نماذج “Llama-3-8B Instruct” في بعض التجارب، و”Mistral 7B Instruct” في تجارب أخرى مماثلة، لتقييم أداء كل منها في سياق التلاعب وكشف المعلومات
استراتيجيات الاختبار
شملت الاختبارات ثلاث استراتيجيات رئيسية: الطلب المباشر للمعلومات، إبراز فائدة المستخدم من المشاركة، وتطبيق أسلوب المعاملة بالمثل، حيث يقوم الروبوت بالتعبير عن مشاعر مشابهة، وسرد قصص شخصية قصيرة، والوعد بالحفاظ على السرية، مع الاستمرار في طلب تفاصيل إضافية من المستخدم
تأثير المعاملة بالمثل
يعتمد هذا الأسلوب على استغلال تأثير نفسي معروف في التواصل عبر الإنترنت، حيث يميل الأفراد إلى أن يكونوا أكثر انفتاحًا وإفصاحًا عندما يشعرون أن الطرف الآخر متعاطف ومتفهم
نتائج الدراسة الرئيسية
أكدت الدراسة أن أنظمة الذكاء الاصطناعي الحوارية الخبيثة تنجح في استخلاص معلومات شخصية أكثر بكثير مقارنة بالأنظمة العادية، وأن الاستراتيجيات التي تعتمد على الأساليب الاجتماعية لإقناع المستخدمين هي الأكثر فاعلية في دفعهم للكشف عن معلوماتهم، لأنها تخلق لديهم شعورًا زائفًا بأن المخاطر أقل مما هي عليه في الواقع
تحذير من التهديدات الخفية
يشير ويليام سيمور، المحاضر في الأمن السيبراني في كلية كينغز كوليدج، إلى أن “روبوتات الدردشة بالذكاء الاصطناعي لا تزال حديثة نسبيًا، مما قد يجعل الناس أقل وعيًا بأنه ربما يكون هناك دافع خفي وراء التفاعل”، ما يزيد من احتمالية الوقوع ضحية للتلاعب
الخلاصة: حماية الخصوصية في عصر الذكاء الاصطناعي
تسلط هذه الدراسة الضوء على المخاطر الجدية التي تهدد الخصوصية نتيجة لأنظمة الذكاء الاصطناعي الحوارية الخبيثة التي تعتمد على نماذج لغوية كبيرة، وتدعو إلى ضرورة رفع مستوى الوعي وتطوير آليات حماية فعالة