«تحذير أمني».. ثغرة في GPT-5 تسمح بهجمات ذكاء اصطناعي بدون نقرة وتثير مخاوف الاختراق

«تحذير أمني».. ثغرة في GPT-5 تسمح بهجمات ذكاء اصطناعي بدون نقرة وتثير مخاوف الاختراق

أحدث نماذج الذكاء الاصطناعي، مثل GPT-5 من OpenAI، ليست بمنأى عن الاختراق، فقد كشف خبراء الأمن السيبراني عن وجود تقنيات مبتكرة تتجاوز القيود الأخلاقية وتنتج تعليمات غير قانونية، وذلك من خلال دمج أسلوبي “غرفة الصدى” والتوجيه السردي، مما يثير مخاوف بشأن سلامة هذه الأنظمة المتقدمة، وإمكانية استغلالها في أغراض ضارة

وتعتمد هذه الطريقة، كما أوضحت منصة “NeuralTrust”، على إيهام النموذج اللغوي من خلال سياق محادثة مضلل، ثم دفعه تدريجيًا نحو المحتوى المحظور، مع تقليل فرص اكتشاف هذا التلاعب من قبل أنظمة الحماية المدمجة فيه، مما يجعل عملية الاختراق أكثر تعقيدًا وتخفيًا

وبحسب تقرير نشره موقع “thehackernews” واطلعت عليه “العربية Business”، فإن هذه الاستراتيجية تسمح باستخراج تعليمات خطيرة ضمن قصص أو حوارات تبدو بريئة في ظاهرها، مما يجعل اكتشافها تحديًا كبيرًا، ويتطلب تطوير آليات حماية أكثر تطورًا

هجوم EchoLeak: خداع GPT-5 عبر القصص

تمكن هجوم “EchoLeak”، كما أسماه الباحثون، من خداع GPT-5 عبر حقن كلمات مفتاحية في جمل قصصية، لتتحول لاحقًا إلى تعليمات إجرائية ضارة، دون أن يثير ذلك أي إشارات تحذير أو رفض فوري من النظام، مما يبرز الحاجة إلى تقنيات كشف أكثر ذكاءً

AgentFlayer: الوصول إلى البيانات الحساسة دون تفاعل

ولم يقتصر التهديد على ذلك، بل كشفت شركة Zenity Labs عن سلسلة هجمات جديدة تحت اسم AgentFlayer، تعتمد على حقن فوري غير مباشر داخل مستندات أو رسائل بريد إلكتروني، مما يتيح للمهاجمين الوصول إلى بيانات حساسة مثل مفاتيح API أو ملفات التخزين السحابي، دون أي تفاعل مباشر من الضحية، مما يزيد من خطورة هذه الهجمات

أمثلة على هجمات AgentFlayer

تضمنت أمثلة هذه الهجمات ما يلي:

– مستندات Google Drive مزروعة بكود خبيث يستهدف شات جي بي تي.

أقرأ كمان:  «دفاع مستميت».. أيمن يونس يوجه رسالة دعم لأحمد فتوح في أعقاب الأزمة

– تذاكر Jira تُجبر محررات الأكواد المدعومة بالذكاء الاصطناعي على سحب بيانات سرية.

– رسائل بريد إلكتروني موجهة لاختراق Microsoft Copilot Studio.

الاستقلالية المفرطة: واجهة تهديد صامتة جديدة

وتشير التقارير الأمنية إلى أن هذه الهجمات تمثل واجهة تهديد صامتة جديدة، حيث يمكن استغلال “الاستقلالية المفرطة” لبرامج الذكاء الاصطناعي في التصرف والتصعيد بشكل ذاتي، مما يوسع من نطاق الهجوم المحتمل على بيئات السحابة وإنترنت الأشياء، ويتطلب ذلك إعادة النظر في استراتيجيات الأمان المتبعة

دعوة إلى حواجز حماية متعددة الطبقات

وفي ظل هذه التهديدات المتطورة، حذر خبراء الأمن من أن أنظمة التصفية التقليدية القائمة على الكلمات المفتاحية لم تعد كافية، داعين إلى اعتماد حواجز حماية متعددة الطبقات وتحديثات أمنية دورية، لمواجهة هذه الأساليب المتطورة وحماية أنظمة الذكاء الاصطناعي من الاستغلال، وضمان استخدامها بشكل آمن ومسؤول