«احذر الوقوع في الفخ!» 6 أخطار أمنية تهدد بياناتك عند استخدام “شات جي بي تي” في بيئة العمل

«احذر الوقوع في الفخ!» 6 أخطار أمنية تهدد بياناتك عند استخدام “شات جي بي تي” في بيئة العمل

الذكاء الاصطناعي أصبح جزءًا لا يتجزأ من بيئة العمل الحديثة، وعدم تبنيه قد يضعك في موقف متأخر مقارنة بزملائك، ومع ذلك، يجب أن ندرك أن أدوات الذكاء الاصطناعي، مثل “شات جي بي تي”، يمكن أن تشكل تهديدًا حقيقيًا إذا لم يتم استخدامها بشكل صحيح، وهذا يتطلب منا فهمًا عميقًا للمخاطر المحتملة قبل الاندماج الكامل في هذه التكنولوجيا

من الضروري أن نعي المخاطر الأمنية الكامنة التي قد تنجم عن هذه الأدوات، بدءًا من انتهاك الخصوصية وصولًا إلى سرقة الملكية الفكرية، وإليك أبرز 6 مخاطر رئيسية يجب الانتباه إليها عند دمج الذكاء الاصطناعي في مكان العمل:

أخطار الخصوصية

أحد أكبر المخاوف المتعلقة باستخدام أدوات الذكاء الاصطناعي في العمل هو إمكانية مشاركة معلومات حساسة أو خاصة دون قصد، سواء كانت بيانات العملاء، مستندات داخلية، أو حتى أفكار مبتكرة خاصة بك أو بمؤسستك

قد تميل إلى إرسال مسودة اقتراح، عقد، أو فكرة اختراع إلى أداة ذكاء اصطناعي بهدف تحسينها، ولكن بمجرد فعل ذلك، فإنك تسلم هذه المعلومات إلى منصة خارجية، وغالبًا ما تفقد السيطرة الكاملة على كيفية استخدامها لاحقًا

على الرغم من أن بعض الشركات المزودة لهذه الأدوات تقدم حسابات مخصصة للمؤسسات وتتعهد بعدم تخزين أو استخدام بياناتك لتدريب نماذجها، إلا أن هذا يعتمد بشكل كبير على إعدادات الأداة وسياسات الخصوصية التي قد تتغير مع مرور الوقت أو تتأثر بقوانين استثنائية

الخطر الأكبر لا يكمن في أن الذكاء الاصطناعي سيسرق بياناتك بشكل مباشر، بل في أنك قد تمنحه معلومات قيمة دون إدراك العواقب المحتملة، فالذكاء الاصطناعي يأخذ بياناتك، يتدرب عليها، ثم يعرضها للعامة على شكل مخرجات عند الطلب

إن سوء استخدام الذكاء الاصطناعي قد يعرضك لانتهاك قوانين صارمة مثل قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) أو قانون حماية البيانات العامة (GDPR)، ويجب أن تتذكر أن انتهاك هذه القوانين يمكن أن يؤدي إلى عقوبات مالية كبيرة لشركتك، بالإضافة إلى أن سوء التعامل مع بيانات العملاء أو المرضى قد يكلفك وظيفتك، وفي حال كنت قد وقعت اتفاقية عدم إفصاح عند بدء عملك، فإن إفشاء بيانات محمية يعتبر خرقًا لهذه الاتفاقية

أقرأ كمان:  «تحذير هام» الأرصاد الجوية تنبه: تجنبوا التعرض المباشر لأشعة الشمس اليوم

لتجنب وقوع الموظفين في هذه الأخطاء، تقدم شركات الذكاء الاصطناعي مثل “أوبن إيه آي” و “أنثروبيك” خدمات مؤسسية مصممة خصيصًا للشركات، هذه الخدمات تسمح باستخدام منتجاتها بطريقة مخصصة مع الالتزام بحماية الخصوصية والأمن السيبراني، ومن هنا، تظهر أهمية استخدام حساب الذكاء الاصطناعي الذي توفره الشركة بدلاً من الاعتماد على حساب شخصي



مصدر الصورة
تعتمد أدوات الذكاء الاصطناعي على كميات هائلة من البيانات مثل المقالات والصور والأبحاث ومحتوى الفيديوهات (شترستوك)

المعلومات الخطأ

الذكاء الاصطناعي لا يتحقق بشكل مستقل من صحة المعلومات التي يقدمها، بل يعتمد على التنبؤ بالكلمات بناءً على الأنماط التي تعلمها من البيانات الضخمة التي تم تدريبه عليها، على الرغم من أن نماذج اللغة الكبيرة قادرة على إنشاء مستندات كاملة، تلخيصات، وحتى اقتباسات في ثوانٍ، إلا أنها غالبًا ما “تهلوس”، أي تنتج معلومات خاطئة تبدو للوهلة الأولى قابلة للتصديق، وقد تظهر هذه المعلومات الخاطئة على شكل مصادر وهمية، بيانات غير دقيقة، أو حتى قضايا قانونية لا وجود لها

حتى في العمليات الحسابية البسيطة أو الجداول، يمكن للذكاء الاصطناعي أن يرتكب أخطاءً، مثل حساب النتائج بشكل غير صحيح، تطبيق المعادلات بطريقة خاطئة، أو ببساطة تقديم معلومات غير دقيقة، وإذا قمت بتنبيه الذكاء الاصطناعي إلى الخطأ، فقد يعترف ويصحح نفسه، مما يؤكد أنه لم يكن متأكدًا من البداية

لذلك، إذا قمت بنسخ محتوى من الذكاء الاصطناعي ووضعته في عرض تقديمي أو تقرير دون مراجعة دقيقة، فإنك تخاطر بنشر معلومات مضللة قد تضر بمصداقيتك ومصداقية شركتك، ومن الضروري دائمًا مراجعة مخرجات الذكاء الاصطناعي والتحقق من صحتها

أخطار التحيّز

تعتمد أدوات الذكاء الاصطناعي بشكل كبير على كميات هائلة من البيانات، بما في ذلك المقالات، الصور، الأبحاث، ومحتوى الفيديو، وهذا يجعلها في بعض الأحيان تعكس التحيزات الموجودة في هذه البيانات أو لدى مؤلفيها

على الرغم من الجهود التي تبذلها الشركات الكبرى لتعديل نماذجها بهدف تجنب إنتاج أي محتوى مسيء أو متحيز، إلا أن هذه الجهود لا تنجح دائمًا، على سبيل المثال، قد تستخدم شركة ما أداة ذكاء اصطناعي لاختيار موظفين جدد، ولكن الأداة قد تستبعد دون قصد مرشحين من خلفيات عرقية معينة، وهذا لا يضر بالمرشحين فحسب، بل قد يعرض الشركة أيضًا لقضايا قانونية مكلفة

أقرأ كمان:  «مستقبل التحكم بين يديك» ميتا تكشف عن سوار معصم ثوري للتحكم بالإيماءات والتفاعل الحاسوبي

والأسوأ من ذلك هو أن بعض الحلول المستخدمة للحد من التحيز قد تتسبب في تحيز من نوع آخر، على سبيل المثال، قد يستخدم المطورون ما يعرف بـ “مطالبات النظام” لتوجيه سلوك الأداة، مثل منعها من استخدام كلمات نابية أو عبارات عنصرية، ولكن هذه الأوامر نفسها قد تزرع تحيزًا غير مقصود في ردود الأداة

أحد الأمثلة البارزة على ذلك حدث عندما قام أحد مطوري شركة “إكس إيه آي” (xAI) بتعديل أحد هذه الأوامر، مما جعل روبوت الدردشة “غروك” (Grok) يكرر مزاعم غريبة عن إبادة جماعية للبيض في جنوب أفريقيا، بالإضافة إلى تعليقات “معادية للسامية” تضمنت مدحًا لأدولف هتلر، مما تسبب في استقالة ليندا ياكارينو الرئيسة التنفيذية لشركة إكس

الانحراف في المحادثة وتأثيره على المدى الطويل

لا يقتصر تأثير الذكاء الاصطناعي على العوامل الخارجية فقط، بل يمكن أن يتأثر بتفاعلك الشخصي معه، فكلما زاد استخدامك لأداة الذكاء الاصطناعي، زاد تأثر ردودها بسياق محادثاتك السابقة، خاصة على المنصات التي تعتمد على ميزة الذاكرة أو تتبع الجلسات المستمرة

على سبيل المثال، إذا كنت تشغل وظيفة مدير موارد بشرية في شركة ما وسبق أن أخبرت “شات جي بي تي” أنك مررت بتجربة سيئة مع نوع معين من الموظفين، ثم سألته لاحقًا “هل تنصحني بتوظيف هذا الشخص؟”، فقد يتأثر رد الذكاء الاصطناعي بتجربتك السيئة السابقة سواء بقصد أو دون قصد، إذ إن الروبوت قد يميل إلى رأي سلبي في أي موظف جديد، لأنك أبديت رأيًا سلبيًا سابقًا عن موظف مشابه دون أن تنتبه لهذا التحيز

هذا ما يسمى بـ “انحراف المحادثة”، حيث يبدأ الذكاء الاصطناعي في التفاعل معك وكأنه يتبنى وجهة نظرك السابقة بدلاً من أن يكون محايدًا، فإذا تعاملت مع “شات جي بي تي” كمستشار لا كأداة، فقد تحصل على إرشادات خاطئة بناءً على توجيهات سابقة مشوهة أو عاطفية

أقرأ كمان:  «كلمات مؤثرة» محمد الشناوي يوجه رسالة خاصة لزيزو وتريزيجيه بعد التتويج



مصدر الصورة
ليس كل تأثير في الذكاء الاصطناعي يأتي من الخارج، أحيانا يكون بسبب تفاعلك الشخصي معه (وكالة الأناضول)

أخطاء المستخدمين

أطلقت شركة ميتا مؤخرًا تطبيقًا للهاتف المحمول خاصًا بأداة الذكاء الاصطناعي “لاما” (Llama)، وتضمن التطبيق موجزًا اجتماعيًا يعرض الأسئلة، النصوص، والصور التي ينشرها المستخدمون، ولكن العديد من المستخدمين لم يكونوا على علم بأن محادثاتهم يمكن أن تُعرض للجميع، مما أدى إلى تسرب معلومات محرجة أو خاصة

على الرغم من بساطة هذه الحالة، فإنها توضح كيف يمكن لخطأ بسيط من المستخدم أن يؤدي إلى مواقف غير مرغوبة، وفي بعض الأحيان قد يسبب ضررًا حقيقيًا للشركات

تخيل أن فريق العمل لا يدرك أن أداة الذكاء الاصطناعي الخاصة بتسجيل الملاحظات لا تزال تعمل بعد انتهاء الاجتماع الرسمي، فيبدأ بعض الموظفين بالتحدث بحرية في الغرفة، ظنًا منهم أن كل شيء قد انتهى، بينما تظل الأداة تسجل الحوار، وفي وقت لاحق تُرسل تلك المحادثة غير الرسمية عن طريق الخطأ إلى جميع الحضور في الاجتماع، مما يسبب إحراجًا للموظفين وقد يؤدي إلى طردهم

انتهاك الملكية الفكرية

إذا كنت تستخدم أدوات الذكاء الاصطناعي لإنشاء صور، شعارات، مقاطع فيديو، أو صوت، فقد تكون الأداة نفسها قد تدربت على مواد محمية بحقوق الطبع والنشر، وهذا يعني أن ما تنتجه قد يحتوي دون قصد على عناصر تنتهك حقوق ملكية فكرية لفنان أو جهة معينة، مما يعرضك أو شركتك لخطر قانوني وربما دعاوى قضائية

تجدر الإشارة إلى أن القوانين المتعلقة بحقوق النشر والذكاء الاصطناعي لا تزال غير واضحة تمامًا، وهناك قضايا ضخمة لم تُحسم بعد، مثل دعوى ديزني ضد “ميدجورني” (Midjourney)، ودعوى نيويورك تايمز ضد “أوبن إيه آي”، بالإضافة إلى قضايا مرفوعة من مؤلفين ضد شركة “ميتا”

لا تفترض أن كل ما تنتجه أدوات الذكاء الاصطناعي آمن قانونيًا للاستخدام، فقبل استخدام أي محتوى مولد بالذكاء الاصطناعي في عمل رسمي أو تجاري، من الأفضل دائمًا استشارة محامٍ أو الفريق القانوني في الشركة