لماذا يلجأ كثير من الأمريكيين إلى الذكاء الاصطناعي للحصول على المشورة الصحية؟

أظهرت استطلاعات رأي حديثة أن نحو ربع البالغين في الولايات المتحدة استخدموا أداة ذكاء اصطناعي للحصول على نصائح صحية -
أظهرت استطلاعات رأي حديثة أن نحو ربع البالغين في الولايات المتحدة استخدموا أداة ذكاء اصطناعي للحصول على نصائح صحية -
شارك الخبر
أصبح اللجوء إلى أدوات الذكاء الاصطناعي للحصول على المشورة الصحية عادةً لدى العديد من الأمريكيين، وفقاً لاستطلاع رأي أجرته مؤسسة "ويست هيلث" ومركز "غالوب" للرعاية الصحية في أمريكا ونُشر الأربعاء.

وأظهرت ثلاثة استطلاعات رأي حديثة على الأقل أن ما يقرب من ربع البالغين في الولايات المتحدة استخدموا أداة ذكاء اصطناعي للحصول على معلومات أو نصائح صحية خلال الثلاثين يوماً الماضية، وفقاً لوكالة "أسوشيتد برس".

وقال الدكتور كارانديب سينغ، كبير مسؤولي الذكاء الاصطناعي الصحي في جامعة كاليفورنيا سان دييغو هيلث، إن أدوات الذكاء الاصطناعي عبر الإنترنت هي نسخة مطورة من عمليات البحث الصحي على "غوغل" التي يقوم بها الأمريكيون منذ عقود.

اظهار أخبار متعلقة


وأضاف: "أعتبره بمثابة بوابة دخول أفضل إلى محركات البحث على الإنترنت؛ فبدلاً من أن يضطر المستخدم إلى البحث بين 10 أو 20 أو 30 رابطاً في نتائج البحث، يمكنه الآن الحصول على ملخص تنفيذي".

البحث عن إجابات سريعة

يقول معظم الأمريكيين الذين يستخدمون أدوات الذكاء الاصطناعي لأغراض صحية إنهم يريدون إجابات فورية. وفي بعض الحالات، يساعدهم ذلك في تقييم نوع الرعاية الطبية التي يحتاجونها، حيث يظنون أن تطبيق "ChatGPT" قادر على تقييم الأمر هل هو "خطير أم لا؟".

وأظهر استطلاع رأي أجرته مؤسسة غالوب أن حوالي 7 من كل 10 بالغين أمريكيين ممن استخدموا الذكاء الاصطناعي في أبحاثهم الصحية خلال الثلاثين يوماً الماضية،

وأفادوا بأنهم كانوا يبحثون عن إجابات سريعة، أو معلومات إضافية، أو بدافع الفضول فحسب. وقد استخدمته الأغلبية في أبحاثها قبل زيارة الطبيب أو بعد موعده.

لجوء ذوي الدخل المحدود للذكاء الاصطناعي

تشير نتائج الاستطلاعات إلى أن انتشار أدوات الذكاء الاصطناعي لم يمنع الناس من طلب الرعاية الطبية المتخصصة، فقد أفاد نحو 8 من كل 10 بالغين في الولايات المتحدة أنهم استعانوا بطبيب أو متخصص آخر في الرعاية الصحية للحصول على معلومات صحية خلال العام الماضي.

بينما قال نحو 3 من كل 10 الشيء نفسه عن أدوات الذكاء الاصطناعي وبرامج الدردشة الآلية، وذلك وفقاً لاستطلاع رأي أجرته مؤسسة "كايزر فاميلي فاونديشن" (KFF) في أواخر شباط/فبراير.

وبالمثل، وجدت دراسة استقصائية أجراها مركز "بيو" للأبحاث في تشرين الأول/أكتوبر أن حوالي 2 من كل 10 بالغين في الولايات المتحدة يقولون إنهم حصلوا على معلومات صحية من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، بينما قال حوالي 85 بالمئة الشيء نفسه عن مقدمي الرعاية الصحية.

في المقابل، هناك مؤشرات على أن بعض الأمريكيين يستخدمون الذكاء الاصطناعي للحصول على المشورة الصحية لأنهم يكافحون من أجل الحصول على الرعاية الطبية المهنية، في وقت تعمل فيه السياسة الفيدرالية وعوامل السوق على تفاقم تكاليف الرعاية الصحية.

هرباً من تكاليف الطبيب

أفادت نسبة صغيرة، ولكنها ذات دلالة إحصائية، من المشاركين في دراسة غالوب أنهم استخدموا الذكاء الاصطناعي لأن الحصول على الرعاية الصحية كان مكلفاً للغاية أو غير مريح.

وأراد نحو 4 من كل 10 أشخاص الحصول على المساعدة خارج ساعات العمل الرسمية، بينما لم يرغب نحو 3 من كل 10 أشخاص في دفع تكاليف زيارة الطبيب. ولم يكن لدى نحو 2 من كل 10 أشخاص وقت لحجز موعد.

فيما قال آخرون إنهم لجؤوا للذكاء الاصطناعي لأنهم شعروا بالتجاهل أو الإهمال من قبل مقدمي الرعاية الصحية في الماضي، أو كانوا يشعرون بالحرج الشديد من التحدث إلى شخص ما.

ووجد استطلاع مؤسسة "كايزر فاميلي" أن الشباب والأشخاص ذوي الدخل المنخفض كانوا أكثر عرضة للقول إنهم استخدموا أداة الذكاء الاصطناعي أو برنامج الدردشة الآلي للحصول على المعلومات الصحية لأنهم لم يتمكنوا من تحمل تكلفة زيارة مقدم الرعاية الصحية.

تباين آراء بشأن الثقة بالذكاء الاصطناعي

كثيراً ما يحذر خبراء التقنية من أن برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي لا تفكر من تلقاء نفسها، وبالتالي قد تنشر معلومات خاطئة أحياناً، وقد امتدت هذه المخاوف حتى إلى مستخدمي الذكاء الاصطناعي بشكل متكرر.

وأظهر استطلاع رأي أجرته مؤسسة غالوب أن نحو ثلث البالغين الذين استخدموا الذكاء الاصطناعي مؤخراً للحصول على معلومات صحية، قالوا إنهم يثقون "بشدة" أو "إلى حد ما" بدقة المعلومات والنصائح الصحية التي توفرها أدوات الذكاء الاصطناعي.

في المقابل، أعربت نسبة مماثلة تقريباً، وهي 34 بالمئة، عن عدم ثقتهم بها، بينما لم يُبدِ 33 بالمئة آخرون أي موقف واضح باتجاه اعتمادهم على ما يتلقونه من مشورة عبر الذكاء الاصطناعي.

المخاوف بشأن خصوصية المعلومات

قال نحو ثلاثة أرباع البالغين في أمريكا إنهم "قلقون للغاية" أو "قلقون إلى حد ما" بشأن خصوصية المعلومات الطبية أو الصحية الشخصية التي يقدمها الناس لأدوات الذكاء الاصطناعي أو برامج الدردشة الآلية، وفقاً لمؤسسة كايزر فاميلي.

وقال سينغ، من مركز "يو سي سان دييغو" الصحي، إن معظم أدوات الذكاء الاصطناعي تحتوي على إعدادات يمكن للمستخدمين تفعيلها لمنع استخدام بياناتهم في تدريب نماذج مستقبلية.

لكن ذلك يتطلب يقظة المستخدم، وعدم توخي الحذر قد يؤدي إلى عواقب وخيمة. على سبيل المثال، اكتشف محققو الإنترنت في شركة "غوغل" الصيف الماضي محادثات خاصة على موقع "ChatGPT" تم فهرستها على موقع ويب عام دون أن يدرك المستخدمون ذلك.

وقالت تامارا روبارت، وهي مخرجة تبلغ من العمر 47 عاماً تعيش في لوس أنجلوس، إنها محظوظة لوجود أطباء في عائلة زوجها تتواصل معهم بدلاً من اللجوء إلى الذكاء الاصطناعي. ونظراً لتاريخ عائلتها مع سرطان الثدي، فإن استخدام روبوت محادثة للحصول على نصائح صحية يبدو محفوفاً بالمخاطر.

الذكاء الاصطناعي "يهلوس" في الطب

حذّر خبراء من الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات صحية وطبية، مؤكدين أنها قد تقدّم إجابات غير دقيقة أو مضللة، وفق دراسة نشرت نتائجها في مجلة "BMJ Open".

وأوضحت الدراسة أن هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بـ"الهلوسة"، وهي ظاهرة تؤدي إلى إنتاج معلومات خاطئة أو غير مكتملة، رغم عرضها بأسلوب يبدو موثوقاً.

اظهار أخبار متعلقة


وفي دراسة شملت 50 سؤالاً طبياً، تبيّن أن نحو نصف الإجابات التي قدمتها روبوتات الدردشة كانت "إشكالية". وأظهرت النتائج أن نسبة الأخطاء كانت الأعلى لدى Grok (58%)، يليه ChatGPT (52%)، ثم Meta AI (50%).

وأشار الباحثون إلى أن سبب هذه الأخطاء يعود إلى اعتماد هذه النماذج على بيانات تدريب قد تكون منحازة أو غير مكتملة، إضافة إلى ميلها أحياناً إلى ما يُعرف بـ"المجاملة"، أي تقديم إجابات تتوافق مع معتقدات المستخدم بدلاً من الالتزام بالدقة العلمية.

كما لفتوا إلى أن هذه الأنظمة غير مرخّصة لتقديم المشورة الطبية، ولا تملك دائماً وصولاً إلى أحدث المعلومات، ما يجعل استخدامها محفوفاً بالمخاطر، وأكد الباحثون أن روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص.
التعليقات (0)