في قلب الثورة الرقمية، ومع الانتشار المتزايد لروبوتات المحادثة، يتبادر إلى ذهن الكثيرين سؤال جوهري، من يقوم بتدريب هذه الكيانات الرقمية، ومن يضفي عليها طابعًا خاصًا ويعدل استجاباتها، لا شك أن شركات الذكاء الاصطناعي تستثمر في برامج متطورة لتغذية هذه الروبوتات بكميات هائلة من البيانات والمعلومات، لكن وراء الكواليس، هناك فريق من “البشر والمختصين” يعملون بدأب على “ضبط” إجابات هذه الروبوتات، وصقلها لتكون أكثر دقة وملاءمة للسياق
### عرض عمل غير تقليدي
في ربيع عام 2024، تلقت رايتشل ساوير، الكاتبة التقنية من ولاية تكساس الأميركية، عرضًا وظيفيًا مثيرًا عبر منصة “لينكدإن”، كان عنوان الوظيفة غامضًا بعض الشيء، “محللة كتابة”، توقعت ساوير في البداية أن يكون العمل مشابهًا لتجاربها السابقة في مجال صناعة المحتوى، لكنها سرعان ما اكتشفت أن الواقع مختلف تمامًا، فبدلًا من الكتابة، كان عليها تدريب ومراقبة ما تنتجه الآلات ومحركات الذكاء الاصطناعي، وذلك وفقًا لتحقيق مفصل نشرته صحيفة “ذي غارديان” البريطانية
### جيش من المدربين في الخفاء
لم تكن ساوير وحيدة في هذه التجربة، بل كانت جزءًا من الآلاف المتعاقدين مع شركات وسيطة مثل GlobalLogic، يُعرف هؤلاء العاملون في الصناعة باسم “المقيّمين” أو “الريترز” (raters)، وتتمثل مهمتهم الأساسية في مراجعة الإجابات التي يقدمها روبوت غوغل “Gemini” أو غيره من منتجات الذكاء الاصطناعي، ثم تصحيح الأخطاء وتقييم جودة الردود وفقًا لمعايير محددة
قد يبدو الأمر بسيطًا، مجرد اختيار الرد الأفضل من بين خيارين، أو الإشارة إلى خطأ لغوي أو منطقي، لكن خلف هذه المهام الروتينية، يقضي المقيّمون ساعات طويلة في التعامل مع محتوى قد يكون صادمًا، من نصوص عنيفة أو متحيزة إلى أسئلة حساسة في مجالات الطب والقانون والسياسة
### ضغوط نفسية وقيود زمنية
تزداد الأمور تعقيدًا بسبب المهلة الزمنية الممنوحة للمقيّمين، والتي تضعهم تحت ضغط هائل، في البداية، كانت كل مهمة تستغرق نصف ساعة، ثم تم تقليصها إلى 15 دقيقة فقط، وهو وقت غير كافٍ لقراءة 500 كلمة، وتدقيقها، ومراجعة مصادرها، وقد أثر هذا الضغط سلبًا على الصحة النفسية للكثيرين، حيث تحدث البعض عن نوبات قلق أو شعور بالذنب لأنهم يراجعون إجابات في قضايا مصيرية لا يمتلكون فيها الخبرة الكافية
### أخلاقيات الذكاء الاصطناعي على المحك
لا يقتصر التوتر على طبيعة المهام فحسب، بل يشمل أيضًا التغيرات المستمرة في الإرشادات، فبحسب العاملين، خففت “غوغل” بعض قيودها عام 2024، بحيث أصبح مسموحًا للنظام بإعادة إنتاج خطاب مستخدم يتضمن عبارات جارحة أو محتوى حساس، ما أثار تساؤلات حول التوازن بين السلامة وسرعة المنافسة في سوق الذكاء الاصطناعي
### أجور زهيدة في مقابل مجهود مضن
في المقابل، يتقاضى المقيّمون في الولايات المتحدة ما بين 16 و21 دولارًا للساعة، بينما تنخفض الأجور بشكل كبير في بلدان مثل كينيا وكولومبيا، تبدو هذه الأرقام متواضعة جدًا مقارنة بعوائد “غوغل” الضخمة من منتجات الذكاء الاصطناعي
يقدم هؤلاء المقيّمون لنماذج الذكاء الاصطناعي “لمسة بشرية” تجعلها أكثر اتساقًا وأقرب إلى فهم الواقع، لكن عملهم يبقى في الظل، بعيدًا عن الأضواء والاحتفالات التي تصف الذكاء الاصطناعي بأنه ثورة سحرية، وكما قالت إحدى العاملات في هذا المجال، “الذكاء الاصطناعي ليس سحرًا، إنه قائم على جهد ووقت آلاف الأشخاص الذين لا يراهم أحد”