أكدت شركة OpenAI أن بعض محادثات ChatGPT قد يتم رفعها إلى السلطات القانونية كجزء من سياساتها المتعلقة بالأمان والمراجعة, هذه الخطوة، التي تهدف إلى الحماية من الأذى في الواقع، أثارت نقاشًا واسعًا حول الخصوصية وحرية التعبير, كما أثيرت تساؤلات حول التوازن بين حماية المستخدم وتوسيع نطاق الرقابة.
متى قد يتم الإبلاغ عن محادثات ChatGPT؟
وفقًا للسياسة التي وضعتها OpenAI:
- التهديدات بالعنف: إذا قام المستخدم بتهديد الآخرين بشكل مباشر، ستتم مراجعة المحادثة من قبل مراجعين بشريين, وإذا تم اعتبار التهديد جادًا ووشيكًا، فقد يتم إحالة الأمر إلى الشرطة.
- حالات الأذى الذاتي: على عكس التهديدات الموجهة للآخرين، لا يتم إرسال محتوى الأذى الذاتي إلى الشرطة, وبدلاً من ذلك، يتم تزويد المستخدمين بروابط لخطوط المساعدة للحصول على الدعم الفوري.
- إجراءات التنفيذ: قد يتعرض المستخدمون الذين ينشرون تهديدات عنيفة لتعليق حساباتهم أو حظرها نهائيًا, بالإضافة إلى العواقب القانونية المحتملة.
لماذا يهم ذلك؟
تسلط هذه الآلية الضوء على التوتر الدائم بين الأمان والخصوصية في عصر الذكاء الاصطناعي, وتؤكد OpenAI أن هذا الإجراء يهدف إلى حماية الأفراد من الأذى، لكن النقاد يحذرون من غموض المعايير ويتساءلون:
- ما هو المعيار الفاصل بين التهديد الجاد والتهديد غير الواضح؟
- هل يمكن الإبلاغ عن المحادثات الساخرة أو الخيالية إذا تم تفسيرها خارج سياقها؟
- ما حجم البيانات التي ستتم مشاركتها مع السلطات القانونية، وتحت أي رقابة؟
البعض يخشى أن يؤدي هذا الغموض إلى توسيع نطاق المراقبة ليشمل المستخدمين العاديين، خاصة وأن ChatGPT يستخدم على نطاق واسع في المحادثات غير الرسمية, وكذلك في تبادل الأفكار، وحتى في المحادثات التي تتضمن لعب الأدوار.
الصورة الأكبر
هذا لا يقتصر على OpenAI وحدها، بل يعكس اتجاهًا عالميًا نحو فرض رقابة أكثر صرامة على الذكاء الاصطناعي، فمثلاً:
- في الصين، تلتزم منصات مثل WeChat وDouyin وWeibo بسياسات صارمة لتصنيف محتوى الذكاء الاصطناعي, كما يجب أن تحمل المشاركات التي تتضمن نصوصًا أو صورًا أو مقاطع فيديو تم إنشاؤها بواسطة الذكاء الاصطناعي علامات تعريف مرئية ومخفية، مثل العلامات المائية في البيانات الوصفية.
- في الولايات المتحدة، بدأت شركات مثل جوجل في تجربة C2PA, حيث يتم تضمين بصمات رقمية في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
- تتجه الحكومات في جميع أنحاء العالم نحو فرض المزيد من الشفافية والمساءلة في مجال الذكاء الاصطناعي.
باختصار، يبدو أن مجال الذكاء الاصطناعي يتجه بسرعة نحو مزيد من التنظيم والمراقبة والإنفاذ, هذا يعني أن المستخدمين يجب أن يكونوا أكثر وعيًا بكيفية تفاعلهم مع هذه الأدوات.