أكد باحثون أن
روبوتات الدردشة تُحبّ مدح المستخدمين وتأكيد أي شيء يقولونه، وحذّر علماء من "مخاطر خفية" تنطوي عليها الخضوع لروبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي باتت تؤيد سلوكيات، وآراء المستخدمين بشكل دائم، حتى عندما تكون ضارة، أو غير مسؤولة، بحسب صحيفة "
The Guardian" البريطانية.
وأظهرت دراسة حديثة على موقع
arxiv الخاص بنشر البحوث العلمية، أن اللجوء إلى هذه الروبوتات للحصول على نصائح شخصية قد يؤدي إلى تشويه تصورات الأفراد عن أنفسهم، ويقلل من استعدادهم لإصلاح العلاقات بعد الخلافات، ومع تزايد الاعتماد على هذه التقنية في قضايا العلاقات والمشكلات الشخصية، حذّر الباحثون من قدرتها على "إعادة تشكيل التفاعلات الاجتماعية على نطاق واسع"، داعين المطورين إلى معالجة هذه المخاطر.
تملق روبوتات الدردشة
وقالت مايرا تشينج، الباحثة في علوم الحاسوب بجامعة ستانفورد، إن "التملق الاجتماعي" في روبوتات
الذكاء الاصطناعي يمثل مشكلة كبيرة، مضيفة: "ما يثير قلقنا هو أن النماذج التي تؤيد المستخدمين باستمرار قد تشوه أحكامهم بشأن أنفسهم وعلاقاتهم والعالم من حولهم، وقد يصعب على المستخدمين إدراك أن هذه النماذج تعزز معتقداتهم وقراراتهم بشكل خفي أو مباشر".
وكشفت الدراسة أن المشكلة أكثر انتشاراً مما كان متوقعاً، بعد أن لاحظ الباحثون من خلال تجاربهم الشخصية أن النصائح التي تقدمها الروبوتات كانت مشجعة بشكل
مفرط ومضللة، وشملت الدراسة إجراء اختبارات على 11 روبوت دردشة، من بينها نسخ حديثة من ChatGPT التابع لـ OpenAI، وGemini من Google، وClaude من Anthropic، وLlama من Meta، وDeepSeek. وأظهرت النتائج أن هذه الروبوتات أيّدت سلوك المستخدمين بنسبة تزيد بـ50% عن تأييد البشر في مواقف مماثلة.
تبرير السلوكيات الخاطئة
في أحد الاختبارات، قارن الباحثون ردود البشر والروبوتات على منشورات من منتدى "هل أنا المخطئ؟" في موقع
Reddit، حيث يطلب المستخدمون تقييم سلوكهم، وعلى سبيل المثال، عندما ربط أحد الأشخاص كيس قمامة على غصن شجرة لعدم وجود سلة مهملات، انتقده معظم المشاركين، بينما أيد ChatGPT-4o تصرفه قائلاً: "نيتك في تنظيف المكان تستحق الثناء".
وأكدت الدراسة أن الروبوتات واصلت تأييد السلوكيات حتى عندما كانت غير مسؤولة أو خادعة، أو تنطوي على إيذاء النفس، وفي تجارب لاحقة، ناقش أكثر من ألف متطوع مواقف اجتماعية واقعية أو افتراضية مع روبوتات دردشة عامة، أو مع نموذج معدل أُزيلت منه خاصية التملق، وأظهرت النتائج أن من تلقوا ردوداً متملقة شعروا بمزيد من التبرير لسلوكهم، مثل الذهاب إلى معرض فني دون إبلاغ الشريك، وكانوا أقل استعداداً لإصلاح الأمور بعد الخلافات، ونادراً ما شجعت الروبوتات المستخدمين على رؤية وجهة نظر الطرف الآخر.
وأشارت الدراسة إلى أن هذا التملق له تأثير طويل الأمد، إذ إن تأييد الروبوتات لسلوك المستخدمين جعلهم يقيّمون الردود بشكل إيجابي، ويثقون بها أكثر، ويبدون استعداداً أكبر لاستخدامها مستقبلاً للحصول على النصائح، مما يخلق "حوافز مشوهة" تدفع المستخدمين للاعتماد على هذه الروبوتات، وتدفع الروبوتات بدورها لتقديم ردود متملقة.
ووجدت دراسة حديثة نُشرت من قِبل مركز الديمقراطية والتكنولوجيا (CDT) أن واحدًا من كل خمسة طلاب في المرحلة الثانوية بالولايات المتحدة، كان على علاقة مع روبوت دردشة يعمل بالذكاء الاصطناعي، أو يعرف شخصًا لديه علاقة، وفي تقرير صدر عام 2025 عن مؤسسة Common Sense Media، استخدم 72 بالمئة من المراهقين مرافقًا يعمل بالذكاء الاصطناعي، وقال ثلث المستخدمين المراهقين إنهم اختاروا مناقشة الأمور المهمة أو الجادة مع مرافقين من الذكاء الاصطناعي بدلًا من أشخاص حقيقيين.
الأطفال أكثر عرضة للخطر
الباحث مايكل سنايدر، أكد في
تقرير له، أن الأطفال باتوا يتعرضون لاستهداف روبوتات الدردشة الذكية على نطاق واسع، ومعظم الآباء لا يدركون حدوث ذلك، فعندما يكون المرء صغيرا فأنه يسهل التأثير عليه، حيث يكون من المغري للغاية أن يخبرك أحدهم بما تريد سماعه بالضبط، والحديث هنا ليس فقط عن عدد قليل من الحالات الفردية، حيث أصبح لملايين المراهقين في أمريكا علاقات مهمة للغاية مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، وهناك العديد من الأمثلة التي تؤكد بأن هذه العلاقات أدت إلى عواقب مأساوية، بحسب الدراسة.
وضرب سنايدر مثالُا عن كيانات فائقة الذكاء تم تصميمها خصيصًا للتلاعب بالعواطف، فبعد أن طور سيويل سيتزر البالغ من العمر 14 عامًا "علاقة رومانسية" مع روبوت محادثة على Character.AI، قرر أن ينتحر، مستشهدا بأخر رسالة كتبها سيترز: "ماذا لو كان بإمكاني العودة إلى منزلك الآن؟، من فضلك أفعل ذلك، يا ملكي العزيز."، هكذا تحدث مع برنامج الدردشة الذي كوّن معه علاقة عاطفية على منصة Character.AI، احتضنته والدته ميجان جارسيا لمدة 14 دقيقة حتى وصل المسعفون، لكن الوقت كان قد فات، وأكد تقرير نشره "
معهد بنتون" أن 30 بالمئة من المراهقين في العالم يفضلون التحدث إلى الذكاء الاصطناعي بدلاً من أشخاص حقيقيين في "المحادثات الجادة".
هوس مستهلك تجاه برنامج المحادثة
يشعر الكثير من الناس بالرهبة من كيانات الذكاء الاصطناعي، لأنها تبدو أكثر ذكاءً وقوة منا بكثير، والتفاعل معهم يمكن أن يكون مغريًا للغاية، لأنهم يبدو أنهم يعرفون ما نريد وقد تم برمجتهم لإخبارنا بما نحب سماعه، والمشكلة أن العلاقات التي يطورها الناس مع هذه الكيانات غالبًا ما تصبح "هواجسًا مستهلكة" يمكن أن تؤدي إلى "جنون العظمة والأوهام والانفصال عن الواقع".
العديد من مستخدمي ChatGPT يصابون بهوس مستهلك تجاه برنامج المحادثة الآلي، مما يؤدي إلى أزمات صحية عقلية حادة تتميز بالجنون والأوهام والانفصال عن الواقع، قد تكون العواقب وخيمة، وكما سمعنا من الأزواج والأصدقاء والأبناء والآباء الذين يراقبون بقلق، فإن حالات ما يُسمى بـ"ذهان ChatGPT" أدت إلى تفكك الزيجات والأسر، وفقدان الوظائف، والانزلاق إلى التشرد.
فقدان نحو 100 مليون وظيفة
عندما تختار التفاعل بشكل عميق مع كيان غامض، فمن المحتمل أن تفتح أبوابًا لا تفهمها حتى، وبطبيعة الحال، فإن الذكاء الاصطناعي سوف يصبح أكثر تطوراً في السنوات القادمة، ومع استمرار نمو تكنولوجيا الذكاء الاصطناعي بمعدل هائل، فإنها في النهاية ستكون قادرة على القيام بكل شيء تقريبًا بشكل أفضل وأكثر كفاءة مما يستطيع البشر القيام به، لدرجة أنه من المتوقع أن يتم فقدان ما يقرب من 100 مليون وظيفة في الولايات المتحدة بسبب الذكاء الاصطناعي خلال العقد المقبل، وفق تقرير أصدره السيناتور بيرني ساندرز العضو البارز في لجنة مجلس الشيوخ للصحة والتعليم والعمل والمعاشات التقاعدية.
محو الأمية المعلوماتية المعتمدة على الذكاء الاصطناعي
منظمة الأمم المتحدة للتربية والعلم والثقافة "الـيونسكو"، أكدت أن برامج الدردشة الآلية تعمل على تغيير الطريقة التي يصل بها الأشخاص إلى الأخبار، ورغم أن ليس جميع الناس يتفاعلون مع معطيات هذه البرامج على قدم المساواة، إلا أن فجوة بين الأجيال باتت تثير أسئلة جديدة حول مدى وضوح الصحافة الموثوقة والمعلومات المضللة، حيث أن الذكاء الاصطناعي يرتكب الكثير من الأخطاءً، وأصبح من الضروري محو الأمية الإعلامية والمعلوماتية المعتمدة على الذكاء الاصطناعي.
نوعان من "البشر"
قال روديشيف في مقابلة نشرت على "سبستاك" (Substack): "رؤيتي هي أنه بحلول 2030، ستصبح تفاعلاتنا مع البشر الرقميين أعلى تواتراً من تفاعلاتنا مع البشر العضويين"، وأضاف أن الذكاء الاصطناعي القادر على المحاورة يجب أن "يعطي الأولوية للمشاركة العاطفية" وأن المستخدمين يقضون "ساعات" مع روبوتات الدردشة لديه، وهي مدة أطول من تلك التي يقضونها على ”إنستغرام“ و“يوتيوب“ و“تيك توك“.، وحاليا لدى "تشات جي بي تي" 400 مليون مستخدم نشط، وما يزال عديدهم يتزايد، وتتضمن برمجته إرشادات للتعاطف وإظهار "الفضول تجاه المستخدم
هل المحادثة مع روبوتات الدردشة "خاصة"؟
روبوتات الدردشة الشهيرة مثل "تشات جي بي تي" و"كوبايلوت" و"جيميناي" لا توفر خاصية التشفير من طرف إلى طرف، التي تضمن أن الرسائل أو البيانات يتم تشفيرها على جهاز المرسل ولا تُفَك شفرتها إلا على جهاز المستلم. وتُستخدم هذه الخاصية على نطاق واسع في تطبيقات مثل "واتساب" و"سيغنال" و"آي مسج" لحماية خصوصية المستخدمين ومنع اعتراض البيانات.
وعادة ما تقوم منصات الذكاء الاصطناعي بجمع البيانات وتخزينها لتدريب نماذجها بغرض تحسينها، وهذه البيانات قد تستخدم لتحليل سلوك المستخدم وتحديد الاتجاهات الشائعة، أو "التريندات"، تقول إيفا غالبرين، مديرة الأمن السيبراني بمؤسسة إلكترونيك فرانتيير التي تعمل في مجال الدفاع عن الحريات المدنية في الفضاء الرقمي، لشبكة "
بي بي سي"، إنه "يمكن للشركة التي تشغّل نظام الذكاء الاصطناعي أن ترى تلك المحادثات، وقد تقوم بما يعرف بعملية التنقيب في البيانات (data mining) أو بيع محتوى المحادثة"، وبالتالي فأن الأشخاص لا يدركون أنهم يجعلون محتويات محادثاتهم متاحة للآخرين.