«لغته الخاصة تقترب» الأب الروحي للذكاء الاصطناعي يحذر من تفوق وشيك للآلات على البشر وتطوير أنظمة تواصل مستقلة

«لغته الخاصة تقترب» الأب الروحي للذكاء الاصطناعي يحذر من تفوق وشيك للآلات على البشر وتطوير أنظمة تواصل مستقلة

حذّر جيفري هينتون، المعروف بلقب عرّاب الذكاء الاصطناعي، من اقتراب مرحلة يبتكر فيها الذكاء الاصطناعي لغة خاصة به ويتجاوز القدرات البشرية، إذ أصدر تحذيرًا جديدًا يبدو أقرب إلى حبكة من أفلام الخيال العلمي، وخلال ظهوره في بودكاست القرار الواحد، أكد العالم الحائز على جائزة نوبل أن الأنظمة الذكية قد تطوّر قريبًا وسيلة تواصل لا يفهمها حتى مطوروها من البشر.

وفي توضيحه، قال هينتون إن الأنظمة الحالية تمارس ما يُعرف بالتفكير التسلسلي باللغة الإنجليزية كي نتمكن من تتبع خطواتها، إلا أن المقلق حقًا هو احتمال تطوير لغات داخلية خاصة تتبادل بها هذه الأنظمة المعلومات فيما بينها.

ويرى أن هذا المسار قد يدفع الذكاء الاصطناعي إلى مناطق مجهولة ومثيرة للقلق، إذ أثبتت النماذج قدرتها على إنتاج أفكار مروعة، ولا يوجد ما يضمن أن تظل تلك الأفكار معبّرًا عنها بلغة يمكن تتبعها أو تفسيرها.

وتكتسب تصريحات هينتون وزنًا استثنائيًا كونه الحائز على جائزة نوبل في الفيزياء لعام 2024، وقد مهّد عمله الرائد في الشبكات العصبية لظهور التعلم العميق والنماذج واسعة النطاق المعتمدة اليوم، ومع ذلك يقرّ بأنه لم يستوعب المخاطر كاملة إلا في مرحلة متقدمة من مسيرته.

واعترف قائلًا إنه كان ينبغي أن يدرك مبكرًا طبيعة المخاطر التي قد تنشأ في نهاية المطاف، فقد كان يفترض أن هذا المستقبل بعيد، ويتمنى لو أنه منح قضايا السلامة اهتمامًا أكبر في الماضي، واليوم يدفعه هذا الإدراك المتأخر إلى تكثيف جهوده للدفاع عن سلامة الذكاء الاصطناعي.

ويشير هينتون إلى أن أحد أكبر مصادر القلق يتعلق بطريقة تعلّم الأنظمة الذكية، فبينما يتعين على البشر مشاركة المعرفة بجهد وبطء، تستطيع العقول الرقمية نسخ المعرفة وتعميمها فورًا، وقد أوضح عبر بي بي سي نيوز مثالًا تخيليًا مفاده أنه إذا تعلّم عشرة آلاف شخص معلومة واحدة فسيستوعبونها في اللحظة نفسها، وهذا ما يحدث فعليًا داخل هذه الأنظمة.

أقرأ كمان:  «تحول جذري» PUBG تتجاوز ساحة المعركة وتقتحم عالم المنصات الشاملة

هذا الترابط المعرفي يمنح الذكاء الاصطناعي قدرة على التوسع في التعلم بسرعة تفوق البشر بكثير، إذ تتفوق نماذج حالية مثل GPT4 في نطاق المعرفة العامة، وحتى وإن ظل المنطق نقطة قوة بشرية حتى الآن، إلا أن هذه الأفضلية تتآكل بوتيرة متسارعة وفقًا لهينتون.

ورغم صراحته، يلفت هينتون إلى أن كثيرين في المجال لا يعبّرون علنًا عن مخاوفهم بالقدر نفسه، إذ يقلل العديد من العاملين في الشركات الكبرى من المخاطر على نحو لا يعكس قناعاتهم الخاصة، ويستثني من ذلك ديميس هاسابيس الرئيس التنفيذي لجوجل ديب مايند، مشيدًا باهتمامه الجاد بمعالجة هذه التحديات.

وبالحديث عن مغادرته جوجل في عام 2023، يؤكد هينتون أن القرار لم يكن شكلًا من أشكال الاحتجاج، موضحًا أنه غادر عند بلوغه الخامسة والسبعين بعدما باتت قدرته على البرمجة أقل فاعلية، ومع ذلك وفرت له هذه الخطوة مساحة أوسع للحديث بحرية عن المخاطر المرتبطة بالذكاء الاصطناعي.

وفي الوقت الذي تطلق فيه الحكومات مبادرات مثل خطة عمل الذكاء الاصطناعي التي أعلنها البيت الأبيض، يرى هينتون أن التنظيم وحده لا يكفي، ويؤكد أن المهمة الجوهرية تكمن في بناء ذكاء اصطناعي مؤمّن للخير، وهي مهمة معقدة للغاية لأن هذه الأنظمة قد تبدأ قريبًا في التفكير بطرق يتعذر على البشر فهمها بالكامل.