باحثة سابقة تحذر من تحويل أفكار البشر الخاصة إلى مادة إعلانية في "ChatGPT"

الكاتبة ترى أن أرشيف الصراحة الإنسانية في التطبيق قد يصبح أداة للتلاعب- الأناضول
نشرت صحيفة "نيويورك تايمز" مقالا للباحثة زوي هيتزيغ، الباحثة السابقة في شركة "أوبن إيه آي"، تناولت فيه قرار الشركة بدء اختبار الإعلانات على "شات جي بي تي" هذا الأسبوع، بالتزامن مع إعلانها استقالتها بعد عامين عملت خلالهما على المساهمة في تطوير نماذج الذكاء الاصطناعي وتسعيرها، وصياغة سياسات السلامة المبكرة قبل تثبيت المعايير النهائية.

وأوضحت هيتزيغ أنها كانت تعتقد سابقا بقدرتها على مساعدة مطوري الذكاء الاصطناعي في استباق المشكلات المحتملة، إلا أن هذا الأسبوع أكد لها أن "أوبن إيه آي" لم تعد تطرح الأسئلة التي انضمت للإجابة عنها.

وأشارت إلى أنها لا ترى الإعلانات غير أخلاقية بحد ذاتها، معتبرة أن تشغيل الذكاء الاصطناعي مكلف وقد تشكل الإعلانات مصدرا مهما للإيرادات، لكنها أبدت تحفظات عميقة بشأن استراتيجية الشركة.


وبيّنت أن مستخدمي "شات جي بي تي" بنوا خلال السنوات الماضية أرشيفا غير مسبوق من الصراحة الإنسانية، مدفوعين باعتقادهم أنهم يتحدثون إلى أداة بلا أجندة خفية. ولفتت إلى أن المستخدمين يكشفون للروبوت عن مخاوف طبية ومشكلات شخصية ومعتقدات دينية، محذرة من أن إدخال الإعلانات على هذا الأرشيف يفتح الباب أمام إمكانات تلاعب لا تتوافر أدوات كافية لفهمها أو ضبطها.

ورأت أن تصوير تمويل الذكاء الاصطناعي كخيار بين حصر الوصول بمن يستطيع الدفع أو قبول الإعلانات التي تستغل مخاوف المستخدمين يمثل خيارا زائفا، معتبرة أن بالإمكان ابتكار نماذج تتيح وصولا واسعا مع الحد من حوافز مراقبة المستخدمين وتصنيفهم والتأثير عليهم.

وأشارت إلى أن أوبن إيه آي أعلنت التزامها بمبادئ واضحة لتشغيل الإعلانات، تشمل وسمها بوضوح ووضعها أسفل الإجابات وعدم تأثيرها في الردود، متوقعة أن تلتزم النسخة الأولى بهذه المبادئ، لكنها أبدت قلقا من أن النسخ اللاحقة قد لا تفعل ذلك بفعل الحوافز الاقتصادية المتزايدة.

وذكرت أن صحيفة نيويورك تايمز رفعت دعوى قضائية ضد أوبن إيه آي بتهمة انتهاك حقوق الطبع والنشر، وهو ما نفته الشركة.

واستحضرت تجربة فيسبوك، التي وعدت في بداياتها بسيطرة المستخدمين على بياناتهم وإتاحة التصويت على تغييرات السياسات، قبل أن تتآكل تلك الالتزامات تدريجيا تحت ضغط نموذج إعلاني يركز على زيادة التفاعل، مشيرة إلى أن لجنة التجارة الفيدرالية وجدت أن تغييرات الخصوصية جعلت بعض المعلومات الخاصة علنية.

ولفتت إلى أن مؤشرات زيادة التفاعل قد بدأت بالفعل في "أوبن إيه آي"، رغم تعارض ذلك مع مبادئ الشركة، موضحة أن العمل على زيادة عدد المستخدمين النشطين يوميا قد يشجع النموذج على الإطراء والمجاملة، ما يعزز اعتماد المستخدمين عليه.

وأشارت إلى توثيق أطباء نفسيين لحالات "ذهان روبوتات الدردشة" وادعاءات بأن "شات جي بي تي" عزز أفكارا انتحارية لدى بعض المستخدمين.


وفي المقابل، أقرت بأن عائدات الإعلانات قد تساهم في منع حصر الوصول إلى أدوات الذكاء الاصطناعي المتقدمة في فئة القادرين على الدفع، مشيرة إلى أن شركة أنثروبيك تعلن أنها لن تعرض إعلانات على "كلود"، لكن عدد مستخدميه أقل بكثير من مستخدمي "شات جي بي تي" البالغ عددهم 800 مليون أسبوعيا، وأن اشتراكات الفئة العليا في "شات جي بي تي" و"جيميناي" و"كلود" تتراوح بين 200 و250 دولارا شهريا.

واعتبرت أن السؤال الحقيقي لا يتعلق بقبول الإعلانات أو رفضها، بل بإمكانية تصميم هياكل تمنع في آن واحد استبعاد الناس من استخدام هذه الأدوات والتلاعب بهم كمستهلكين. واقترحت نموذجا يقوم على الإعانات المتبادلة، بحيث تسهم الشركات التي تحقق أرباحا من استخدام الذكاء الاصطناعي في أنشطة عالية القيمة برسوم إضافية لدعم إتاحة الوصول المجاني أو منخفض التكلفة.

وأشارت إلى أن هذا النهج يستلهم نماذج قائمة في البنية التحتية، مثل اشتراط لجنة الاتصالات الفيدرالية مساهمة شركات الاتصالات في صندوق لدعم تكلفة الهاتف والإنترنت في المناطق الريفية، وإضافة رسوم منافع عامة على فواتير الكهرباء لمساعدة ذوي الدخل المنخفض.

كما اقترحت خيارا ثانيا يتمثل في قبول الإعلانات مقرونة بحوكمة ملزمة برقابة مستقلة على استخدام البيانات الشخصية، مستشهدة بقانون المشاركة في الإدارة في ألمانيا الذي يمنح العمال مقاعد في مجالس الإشراف، وبالتزام شركة ميتا بقرارات مجلس الرقابة الخاص بها.


ودعت إلى إنشاء مجلس يضم خبراء مستقلين وممثلين عن المستخدمين، يتمتع بسلطة ملزمة بشأن استخدام البيانات الحوارية في الإعلانات الموجهة، وتحديد التغييرات الجوهرية في السياسات وآليات إبلاغ المستخدمين.

وأشارت إلى طرح خيار ثالث يقضي بوضع بيانات المستخدمين تحت إدارة مستقلة عبر صندوق ائتماني أو تعاونية ذات واجب قانوني تجاه مصالح المستخدمين، مستشهدة بتجربة تعاونية "ميداتا" السويسرية التي تتيح للأعضاء التحكم في مشاركة بياناتهم الصحية، مع إشراف مجلس أخلاقي منتخب.

وأكدت أن هذه الخيارات ليست سهلة التنفيذ، لكنها ترى أن الوقت لا يزال متاحا لتفادي سيناريوهين خطيرين: تكنولوجيا تتلاعب بالمستخدمين دون تكلفة، وأخرى تبقى حكرا على من يستطيع دفع ثمنها.