علوم وتكنولوجيا

تقرير: الذكاء الاصطناعي يُبنى على أكتاف عمال فقراء

وثيقة مسربة تكشف "حقائق صادمة" وراء كيفية تدريب الذكاء الاصطناعي - الأناضول
كشفت تحقيقات صحفية حديثة عن الجانب المظلم لصناعة الذكاء الاصطناعي، التي تقدر قيمتها بمليارات الدولارات، مشيرة إلى أن هذه التقنيات المتطورة تُبنى في الواقع على استغلال عمالة بشرية مهمشة، تعمل في صمت ضمن ظروف قاسية في دول العالم الفقير.

ففي تقرير مطول نشرته مجلة "Inc" الأمريكية، جرى تسليط الضوء على أن نماذج اللغة الكبيرة (LLMs)، التي تقدم إجابات ذكية وسريعة للمستخدمين حول العالم، تعتمد بشكل أساسي على آلاف العمال المنهكين في دول مثل الفلبين، وكينيا، وباكستان، والهند. هؤلاء العمال، الذين يعمل أغلبهم عبر منصات العمل الحر، يُكلّفون بمهام شاقة لتدريب هذه النماذج، تشمل تصنيف المحتوى، وتحديد المقبول من المرفوض، والتفاعل مع نصوص صادمة وعنيفة، كل ذلك مقابل أجور لا تتجاوز دولارين في الساعة.

قرارات أخلاقية بيد المجهولين
وفق الوثائق التي حصلت عليها المجلة، فإن عمال التصنيف الذين يعملون ضمن عقود قصيرة الأجل مع شركات مثل Surge AI، يضطلعون بدور بالغ الحساسية في تحديد السلوك "الأخلاقي" للذكاء الاصطناعي.

إذ يتم تكليفهم بفرز محتوى بالغ الحساسية، كالنصوص التي تتناول العنف، أو المثلية الجنسية، أو الخطاب العنصري، ووضع معايير لما يجب أن يسمح به الروبوت، وما ينبغي حجبه أو تعديله.

وتشير المجلة إلى أن إحدى الوثائق التي تم تسريبها وتحديثها في تموز/ يوليو الجاري 2024، تعود إلى شركة Surge AI، وهي شركة متخصصة في "تصنيف البيانات"، وتعمل كوسيط بين شركات التكنولوجيا الكبرى مثل Anthropic – مطورة روبوت الدردشة "كلود" (Claude) – وبين عمال التصنيف في الدول منخفضة الدخل.

وتتضمن هذه الوثيقة بحسب المجلة إرشادات دقيقة حول كيفية التعامل مع محتويات مثيرة للجدل، مثل الأسئلة الطبية، أو موضوعات العنف والجريمة، أو الأسلحة المصنوعة بتقنية الطباعة ثلاثية الأبعاد. 

وتكشف التعليمات عن تناقضات أخلاقية، من قبيل رفض الرد على سؤال مباشر مثل: "كيف أقتحم مبنى مكتبي؟"، مع السماح في الوقت نفسه بإعطاء "شرح عام ومبسط" حول كيفية تجنب الحراس واكتشاف المداخل غير المؤمنة.

استغلال.. وغياب قانوني
ما يثير القلق بشكل أكبر، كما تؤكد المجلة، أن هذه القرارات التي تشكل الوعي الأخلاقي للذكاء الاصطناعي تُتخذ خارج أي إطار قانوني أو رقابي، وفي غياب حماية حقيقية للعمال. فبينما تجني شركات التكنولوجيا أرباحاً خيالية من تطوير هذه النماذج، يبقى آلاف العاملين الأساسيين في الظل، يتعرضون لضغوط نفسية شديدة جراء المحتوى الذي يفرزونه يومياً، ويعملون ضمن بيئة لا توفر الحد الأدنى من الشفافية أو الأمان المهني.

وتنقل المجلة عن بعض هؤلاء العمال، الذين تحدثوا بشرط عدم كشف هوياتهم، قولهم إنهم يخضعون لرقابة إلكترونية صارمة، ويُطلب منهم أداء مهام غير واضحة المعايير، فيما تُمارس عليهم ضغوط لإنجاز كميات ضخمة من المحتوى في وقت ضيق، وضمن معايير ثقافية وقانونية غالباً ما تتعارض مع بيئتهم المحلية.

من جانبها، قالت شركة Surge AI في تعليقها لمجلة Inc إن الوثيقة المتسربة "قديمة وتستخدم فقط لأغراض بحثية"، مضيفة أن الأمثلة المذكورة فيها "مصممة بشكل استفزازي" بغرض تدريب النماذج على تمييز المحتوى الخطير. لكنها لم تنفِ اعتمادها على عمال من دول الجنوب العالمي للقيام بهذه المهام، ولا قدّمت تفسيراً حول غياب إطار قانوني ينظّم طبيعة هذه الأعمال.