«تحولات رقمية رائدة» : كيف يعيد الذكاء الاصطناعي تعريف استراتيجيات التنظيم الحديث؟

«تحولات رقمية رائدة» : كيف يعيد الذكاء الاصطناعي تعريف استراتيجيات التنظيم الحديث؟

تستغل الجماعات الإرهابية حول العالم تقنيات الذكاء الاصطناعي باستمرار لتعزيز عملياتها، ويشمل ذلك استخدام العملات الرقمية لنقل الأموال واستغلال الطباعة ثلاثية الأبعاد في صناعة الأسلحة، ولكن تقريرًا نشر على موقع “غارديان” كشف أن الإرهابيين بدأوا أيضًا في استخدام تقنيات الذكاء الاصطناعي.

ويوضح التقرير أن الإرهابيين يتجهون الآن نحو استغلال الذكاء الاصطناعي في التخطيط لهجماتهم وعملياتهم المختلفة، وذلك وفقًا لتصريحات صادرة عن هيئات مكافحة الإرهاب في حكومة الولايات المتحدة، ولكن يبقى السؤال: ما هو حجم هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد التنظيمات الإرهابية بشكل كبير على استقطاب المتطوعين من أنحاء العالم والترويج لأنشطتها من خلال عرضها، وفي السابق كان هذا يتطلب جهدًا مضنيًا لالتقاط الصور والمقاطع وتجهيز المواد الدعائية المباشرة، ولكن مع انتشار تقنيات الذكاء الاصطناعي، تغير الوضع.

ويؤكد تقرير “غارديان” أن الإرهابيين يعتمدون على ” شات جي بي تي ” لتعزيز أنشطتهم الدعائية وجذب المزيد من المتطوعين إلى صفوفهم، إذ يستغلون هذا النموذج لتوليد الصور والنصوص المستخدمة في الدعاية بلغات ولهجات متعددة.

وبات بإمكان هذا النموذج تعديل الرسائل الموجودة في مختلف الوسائل الدعائية لتحقيق تأثير مختلف على كل فرد أو تحقيق هدف محدد، ويتم ذلك في غضون ثوانٍ معدودة ودون الحاجة إلى متخصصين في صناعة الإعلانات.

ولا يقتصر الأمر على “شات جي بي تي”، بل يمتد ليشمل أدوات أخرى قادرة على تحويل النصوص إلى مقاطع صوتية ومرئية، وذلك بهدف تحويل الرسائل الدعائية النصية إلى مواد صوتية ومرئية يسهل تداولها.

ويشير تقرير “غارديان” إلى أن تنظيم “داعش” يمتلك دليلًا خاصًا حول استخدام أدوات الذكاء الاصطناعي ومخاطرها، ويقوم بتوزيعه مباشرة على أعضائه والمهتمين بالانضمام إليه.

التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضًا وجود غرف دردشة تابعة لجهات إرهابية، حيث يناقش المستخدمون أدوات الذكاء الاصطناعي وكيفية استغلالها لتعزيز أنشطتهم وتقليل الوقت والجهد المبذول في مختلف الجوانب.

أقرأ كمان:  «تكنو تتحدى العملاق» تكنو تدخل معركة الهواتف القابلة للطي وتسعى لتصدر قائمة الأنحف بثلاثي الطي الأول من نوعه

وفي حين صُممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، لم يغب هذا الأمر عن الجماعات الإرهابية، التي بدأت في استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي كمساعد شخصي أو باحث.



مصدر الصورة
دليل استخدام الذكاء الاصطناعي الخاص بداعش يوجه أعضاءها إلى استخدام الذكاء الاصطناعي كمساعد شخصي (شترستوك)

ويتضح هذا الاستخدام جليًا في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يشير الدليل بوضوح إلى أن هذه التقنية قادرة على تحديد النتائج المستقبلية للحروب، وكيف تحولت إلى سلاح محوري في الصراعات المستقبلية.

كما يذكر التقرير استخدام الذكاء الاصطناعي في إجراء أبحاث سريعة ومباشرة لوضع الخطط والبحث، مما يغني عن الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ يمكن للتقنية تسريع هذه العملية وتقديم نتائج غير مسبوقة.

التغلب على القيود

تفرض شركات الذكاء الاصطناعي، مثل “أوبن إيه آي” ، قيودًا على نماذجها لمنع استخدامها في بناء أسلحة متفجرة أو بيولوجية، أو أي مواد أخرى يمكن إساءة استخدامها.

لكن وفقًا لتقرير “غارديان”، وجدت الجماعات الإرهابية طريقة للتغلب على هذه القيود، فبدلًا من سؤال نماذج الذكاء الاصطناعي عن كيفية صنع القنابل والأسلحة بشكل مباشر، يمكنهم تزويد النموذج بالمخططات وطلب التحقق من دقتها وسلامتها.

علاوة على ذلك، يمكن خداع الذكاء الاصطناعي بطرق مختلفة لإيهامه بأن المخططات والمعلومات المقدمة لن تستخدم لأغراض سيئة، وقد حدثت هذه الحالات مع نماذج متعددة في السنوات الأخيرة.

وفي ظل التنافس بين الشركات لتطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء الوظائف المطلوبة بكفاءة، يتم إهمال إرشادات السلامة المعمول بها عالميًا في بعض الأحيان.

ولعل ما حدث مع روبوت ” غروك ” خير مثال على ذلك، حيث تحول هذا النموذج بين ليلة وضحاها إلى أداة لنشر خطابات معادية للسامية وخطاب الكراهية عبر تغريدات عامة على منصة ” إكس “.

أقرأ كمان:  «قرار حاسم» الأعلى للإعلام يحظر ظهور مها الصغير تلفزيونيًا ويحيلها للتحقيق