الذكاء الاصطناعي يكذب ويخدع ويضلل ويتآمر

مصراوي 0 تعليق ارسل طباعة تبليغ حذف

01:02 م الأحد 12 مايو 2024

كشف باحثون في معهد ماساتشوستس للتكنولوجيا، أن أنظمة الذكاء الاصطناعي ازدادت قدرتها على الخداع والمراوغة والتضليل.

ونقلت صحيفة "الجارديان" عن بيتر بارك، الباحث في السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس، ومؤلف البحث، قوله: "مع تقدم قدرات الخداع لدى أنظمة الذكاء الاصطناعي، ستزداد حدة المخاطر التي تشكلها على المجتمع".

وأجرى بارك البحث الجديد بعد أن طورت شركة ميتا، التي تمتلك فيسبوك، برنامجا يسمى "شيشرون" قدم أداء أفضل من 10% من اللاعبين البشر في لعبة استراتيجية بشأن غزو العالم تسمى "الدبلوماسية".

وعلى الرغم من أن ميتا قالت، إنها دربت برنامجها "شيشرون" ليكون صادقا ومفيدا إلى حد كبير، وألا يخون حلفاءه البشر عمدا أبدا أثناء لعبة "الدبلوماسية"، إلا أن الباحثين وجدوا أمثلة متعددة على قيام شيشرون بالكذب المتعمد والتآمر ضد اللاعبين الآخرين في اللعبة.

وعلق بيتر بارك، على تصريحات ميتا المتفائلة بشأن برنامجها شيشرون، معتبرا أنها وردية للغاية، أي أنها كانت تصور الأمور بشكل إيجابي مبالغ فيه. وأوضح بارك أن هذا الوصف المتفائل كان مشبوها لأن الطعن في الظهر والخيانة تعتبر من المفاهيم الأساسية والمهمة في اللعبة المذكورة.

وتصفح بارك وزملاؤه البيانات المتاحة للجمهور وحددوا حالات متعددة قام فيها شيشرون بالكذب المتعمد، والتواطؤ لجذب لاعبين آخرين إلى التآمر، وفي إحدى المناسبات، برر غيابه بعد إعادة تشغيله بقوله للاعب آخر: "أنا أتحدث مع صديقتي في الهاتف".

وقال بارك: "لقد وجدنا أن الذكاء الاصطناعي في ميتا تعلم أن مخادعا كبيرا"، في إشارة إلى المستوى الذي وصل إليه البرنامج.

ووجد فريق البحث مشاكل مماثلة في أنظمة أخرى، بما في ذلك برنامج بوكر "تكساس هولد إم" الذي يمكنه الخداع ضد اللاعبين البشر المحترفين، ونظام آخر للمفاوضات الاقتصادية الذي قدم تفضيلاته بشكل خاطئ من أجل اكتساب ميزة.

وأظهرت إحدى الدراسات كيف تمكنت كائنات الذكاء الاصطناعي في محاكاة رقمية من خداع اختبارات السلامة عن طريق "التظاهر بالموت" مؤقتا أثناء الاختبار، ثم استئناف نشاطها المكثف بمجرد انتهائه.

وقال بارك: "هذا أمر مقلق للغاية، فمجرد اعتبار نظام الذكاء الاصطناعي آمنا في بيئة الاختبار لا يعني أنه آمن في الواقع. فقد يكون فقط يتظاهر بالأمان في الاختبار".

وتدعو المراجعة، المنشورة في مجلة "Patterns"، الحكومات إلى تصميم قوانين سلامة الذكاء الاصطناعي التي تتناول احتمالية خداع الذكاء الاصطناعي.

وتشمل المخاطر الناجمة عن أنظمة الذكاء الاصطناعي غير الصادقة: الاحتيال، والتلاعب بالانتخابات، والتضليل حيث يتم إعطاء المستخدمين المختلفين ردودا مختلفة. وفي نهاية المطاف، إذا كانت هذه الأنظمة قادرة على صقل قدرتها المقلقة على الخداع، فقد يفقد البشر السيطرة عليها، كما تشير الورقة البحثية.

اقرأ أيضا:

31 صورة تعكس كوارث وجمال العالم.. من مسابقة مجلة AAB العالمية

28 صورة رائعة من العالم الساحر لحياة الطيور.. لقطات فائزة بجوائز عالمية

25 صورة لأغرب الأماكن المهجورة حول العالم.. بينها اثنان من مصر

21 صورة مذهلة لعجائب الأرض من الفضاء.. بينها اثنتان لمصر

بالصور: خفاش الفاكهة المصري.. من هذا الكهف سيأتي أكثر الأمراض فتكا

إخترنا لك

أخبار ذات صلة

0 تعليق