من الحكمة إلى الاحتمال.. كيف تعيد الخوارزميات تشكيل قراراتنا الأسرية؟

جورج ميكروس: تتمتع النماذج اللغوية الكبيرة (LLMs) بدقة مذهلة في التنبؤ بالكلمات، ويتم تدريبها لتبدو "مفيدة" من خلال تغذيتها باقتراحات وتعليقات البشر والضوابط الأمنية.
جورج ميكروس: تتمتع النماذج اللغوية الكبيرة (LLMs) بدقة مذهلة في التنبؤ بالكلمات، ويتم تدريبها لتبدو "مفيدة" من خلال تغذيتها باقتراحات وتعليقات البشر والضوابط الأمنية.
شارك الخبر
في عصر يهيمن عليه الذكاء الاصطناعي وتزداد فيه سرعة تداول المعلومات، تبرز قضية شديدة الأهمية: مدى ملاءمة أنظمة الذكاء الاصطناعي لتقديم نصائح في قضايا إنسانية حساسة، لا سيما تلك المتعلقة بالأسرة والعلاقات الزوجية.

فبينما تميل هذه الأنظمة إلى الإجابات السريعة والحاسمة، تتطلب القرارات الزوجية الحكمة والتأني، والتمييز بين الأبعاد الدينية والاجتماعية والثقافية، وإدراك تبعاتها العميقة على الأفراد والمجتمع. وتطرح هذه الظاهرة أسئلة جوهرية حول تأثير التكنولوجيا على ثقافتنا وأخلاقياتنا وقدرتنا على اتخاذ قرارات شخصية مسؤولة.

ويأتي هذا النص كمساهمة فكرية نقدية بقلم الدكتور جورج ميكروس، أستاذ في كلية العلوم الإنسانية والاجتماعية بجامعة حمد بن خليفة، الباحث في التفاعل بين الابتكار الرقمي والقيم الاجتماعية والأخلاقية، والمهتم بدراسة أثر الذكاء الاصطناعي على أنماط التفكير واتخاذ القرار البشري.

وقد خصّت جامعة حمد بن خليفة منصة "عربي21" بهذا النص لتعميمه وإتاحته لمجتمع القراء، إيمانًا بأهمية النقاش حول مسؤولية التقنية وحدود تدخلها في شؤون الأسرة والمجتمع.


لماذا تُقدِّم أنظمة المحادثات الحالية إجابات حتمية على أسئلة تستدعي التأني والتفكر وكيف يؤثر ذلك على ثقافتنا وأخلاقياتنا وقراراتنا الشخصية؟

انتشر مقطع مصوّر لخبير اجتماعي وتربوي بارز من الكويت، سلط فيه الضوء على ظاهرة مقلقة، فعندما عُرضت على أحد أنظمة الذكاء الاصطناعي مواقف زوجية معقدة تتداخل فيها الأبعاد الدينية، والتاريخ العائلي، والمسؤولية المجتمعية تكرر رده التوصية على الطلاق. وحتى عند إدخال معطيات مستمدة من التعاليم الإسلامية، لم يتغيّر موقف النظام بشكل يُذكر، إذ قدّم ما بدا وكأنه موقف حاسم في حين أن الواقع الإنساني يتطلب تمييزًا، وصبرًا، وتوجيهًا، وإرشادًا.

عندما تنصح الخوارزمية بالطلاق، فإنها قد تكون على حق. وقد تكون أيضًا تركز على شيء غير مؤكد أو تكرر سردية ثقافية تختلف عن واقع المستخدم، فالتحلي بالحكمة هو أمر تحث عليه كل التقاليد، وتبدأ بالتريث والتأني. وإذا أردنا أن تشارك هذه الأنظمة في قراراتنا الخاصة، فيتعين عليها التحلي بهذه الصفات أيضًا، أي أن تسأل قبل أن تجيب، وأن تحدد حدودها، وأن تترك القرار للمختصين الذين يدركون ويعيشون تبعيات ذلك.
ويدعونا هذا التباين إلى التأني والتأمل، ليس لأن الطلاق خيار مرفوض بالمطلق، بل لأن النظام الذي تم تغذيته ببيانات نصية عالمية وصمم لتقديم إجابات سريعة ومقنعة قد يفرض، من حيث لا ندري، نمطًا أخلاقيًا أحادي الثقافة، وهو نمطٌ يتعامل مع الأسئلة العميقة متعددة الأبعاد القيمية كما لو أنها خدمة دعم العملاء باستخدام الخيار الأمثل؛ وهنا تكمن المعضلة الخفية لعصرنا: تقديم نصائح مبنية على الاحتمالات لا الحكمة بنبرة متسلطة دون وجه حق.

لماذا يميل الذكاء الاصطناعي إلى تقديم الحلول القاطعة؟

تتمتع النماذج اللغوية الكبيرة (LLMs) بدقة مذهلة في التنبؤ بالكلمات، ويتم تدريبها لتبدو "مفيدة" من خلال تغذيتها باقتراحات وتعليقات البشر والضوابط الأمنية. ويثمر ذلك عن تصميم محرك ينتج إجابات عامة تبدو معقولة. غير أن "عموميتها" ليست محايدة إطلاقًا، إذ يتم برمجة مصادر البيانات وآليات الضبط المرافقة من خلال تفضيلات معينة كالفردية بدلا من المسؤولية المجتمعية، والعلاج الفوري عوضًا عن احتساب الصبر، وإدارة المخاطر بدلًا من الصبر الإصلاحي. وفي القضايا الحساسة، تميل النماذج المتحفظة إلى الانسحاب الوقائي كقطع العلاقة، وتقليل التعرض، وتجنب الضرر، وهذه المقاربات لازمة أحيانًا، ولكنها أيضًا تضفي نوعًا من السطحية على المشهد الأخلاقي.

وفي الحقيقة، لا يدرك هذا النموذج معنى الزواج، أو الوفاء بالعهد، أو نصيحة الكبار، أو التفاصيل الفقهية الدقيقة المتجذرة في المجتمعات على مر القرون، فهو يأخذ عينات عشوائية من الإحصاءات ويقدم لك تقريرًا يعبر عن المشاعر في تلك اللحظة.

وأما من الناحية التقنية، فإن النموذج لا يراعي اختلاف الثقافات ويتمتع بثقة مفرطة، فهو لا ينحاز فحسب، بل يفتقر إلى المحدودية الكافية، نظرًا لضعف أثر السياقات الروحية والثقافية المتجذّرة ويشمل ذلك النصوص، ومفردات التبريك والتوبيخ في قواعد البيانات العامة؛ وفي حال برزت بعض هذه الأصوات بشكل متجزئ فإن الفلسفات الأخرى الكاملة تهيمن على المشهد، مما يتسبب في تحيز الأسس الأخلاقية للنموذج. وباعتبار ما يحدث عند الترجمة من تبسيط إضافي وتحويل المصطلحات الدقيقة إلى كلمات عامة يسهل استخدامها، فإن ذلك يتسبب في جعلها سطحية. ويفقدها عمقها.

وعلى النقيض من ذلك، فإن كلمات المعالج النفسي، أو الإمام، أو الكاهن، أو الشيخ تحمل في طياتها تبعات حقيقية، فهم المسؤولون وفقًا لتقاليدهم، ومجتمعاتهم، والهيئات التنظيمية أحيانًا، والأهم، أنهم المسؤولون أمام ضمائرهم وذاكرة من استشارهم؛ في حين تكتفي أنظمة الذكاء الاصطناعي بإظهار تنويه عام لتواصل من بعده تقديم اقتراحات تغيّر حياة الناس دون تحمل أي تبعات أخلاقية؛ وعليه فإن هذا التباين، الذي يثمر عن سلطة دون مساءلة، يشكل تحديًا خطيرًا من الناحية الأخلاقية.

كما يثير ذلك العديد من التساؤلات المقلقة حول السلطة والمساءلة، فعلى سبيل المثال، ما هي القيم التي يتم تطبيقها فعليًا عندما يصدر الذكاء الاصطناعي حكمًا بشأن الزواج أو الغفران؟ وما هو الوضع الأخلاقي للإجابة "الأكثر ترجيحًا" عندما يتعلق الأمر بصون العهد والأمر الإلهي؟ ومن هو الحكم عندما تتعارض نصيحة روبوت الدردشة مع أعراف المجتمع، وآراء الآباء، والأمهات، وكبار السن، ورجال الدين؟

يمكننا بناء أنظمة تحترم التعددية الأخلاقية، ولكن فقط في حال كان ذلك هدفنا الصريح. ويمكن البدء بالتواضع الخوارزمي، حيث يجب أن تطرح محركات النصائح أسئلة قبل تقديم التوصيات، وأن تبدي عدم اليقين، وأن تعترف بالمفاضلات المعززة بالقيم.
ويتعين علينا الإقرار بالآلية التي تسوي فيها هذه الأنظمة الاختلافات الثقافية. فقلّما يدرك المستخدمون كيف تُشكّل بيانات التدريب ما يبدو "معقولًا" وكيف تمحو المتوسطات العالمية مفردات الأقليات الأخلاقية. ويوجِّه السؤالان الأساسيان: كيف يمكننا قياس الضرر عندما يكون الأذى اجتماعيًا، أو روحيًا، أو جماعيًا، وليس فرديًا؟ ومتى يجب على الأنظمة الامتناع عن الإجابة وتوجيه المستخدمين إلى المختصين؟ مسار الحل للإجابة عن كيف نحترم حق الإنسان في الحصول على رأي ثانٍ، ليس طبيًا فحسب، بل أخلاقيًا أيضًا، عبر التقاليد المختلفة؟

التعددية المقصودة وليس عن طريق الصدفة

ويمكننا بناء أنظمة تحترم التعددية الأخلاقية، ولكن فقط في حال كان ذلك هدفنا الصريح. ويمكن البدء بالتواضع الخوارزمي، حيث يجب أن تطرح محركات النصائح أسئلة قبل تقديم التوصيات، وأن تبدي عدم اليقين، وأن تعترف بالمفاضلات المعززة بالقيم. وإن أي نظام لا يقول "لا أعرف؛ اطلب المشورة من مختص" هو نظام غير آمن بطبيعته. كما يجب أن تستند الردود إلى مجموعات معتمدة وموثوقة محليًا، وفتاوى، وموارد رعوية، وإرشادات صحية مجتمعية، ويجب أن يتم إتاحة مصادرها بشكل صريح حتى يتمكن المستخدمون من الحكم على مدى توافقها مع قيمهم.

ويجب وضع حدود للامتناع عن التدخل في المجالات الحساسة مثل الزواج، والعنف، وإيذاء النفس، والحضانة؛ ففي هذه الحالات، غالبًا ما يكون الإجراء الصحيح هو تشخيص السياق أولًا، ثم الإحالة؛ فضلًا عن إنشاء رقابة مجتمعية تضم نخبة من الخبراء في مجال الأخلاق، والأطباء، والفقهاء، ورجال الدين، والأخصائيين الاجتماعيين، ليس بصفتهم هيئة رقابية، بل كحماة للحكمة السياقية؛ علاوة على التدقيق في مسألة التجاهل المتباين للتقاليد: أين تفشل الأنظمة بشكل روتيني في إبداء الصلح، والصبر، والإصلاح المجتمعي؟ بهدف منح المستخدمين الحق في التأطير السياقي (تقديم مشورة تراعي تقاليد مجتمع ما دون تعريض سلامة المستخدم للخطر) وإبداء ذلك الاحترام بشكل يتسم بالشفافية؛ كما يجب وضع ملصقات تثقيفية تشرح بوضوح أن نماذج اللغة الكبيرة هي أدوات تنبؤية وفقًا للمعطيات، وليست عرافات.

وإن الغاية من جميع ما سبق ليست تقييد الابتكار بالعادات والتقاليد، ولا تحصين للتقاليد والأعراف من النقد، ولكن الهدف الأساسي من ذلك هو المطالبة بوضع معيار توجه الآلة لتصنيف ومراعاة مدى خطورة الأسئلة المطروحة، فبالنسبة للعديد من العائلات، لا يُعد الزواج عقدًا خاصًا بالزوجين فقط، بل هو سلسلة من الالتزامات والآمال التي تربط الأجيال. وأي أداة تتحدث في هذا الخصوص يجب أن تُدرك، على الأقل، أنها تتحدث عن أمر مقدّس.

وعندما تنصح الخوارزمية بالطلاق، فإنها قد تكون على حق. وقد تكون أيضًا تركز على شيء غير مؤكد أو تكرر سردية ثقافية تختلف عن واقع المستخدم، فالتحلي بالحكمة هو أمر تحث عليه كل التقاليد، وتبدأ بالتريث والتأني. وإذا أردنا أن تشارك هذه الأنظمة في قراراتنا الخاصة، فيتعين عليها التحلي بهذه الصفات أيضًا، أي أن تسأل قبل أن تجيب، وأن تحدد حدودها، وأن تترك القرار للمختصين الذين يدركون ويعيشون تبعيات ذلك.

فهذا هو المبدأ الذي ينبغي أن نتمسك به، لسنا بحاجة إلى ذكاءٍ اصطناعي يُخبرنا ما يجب علينا أن نفعل، بل نحن في حاجة لذكاء اصطناعي يساعدنا على تذكّر من نكون.
* أستاذ في كلية العلوم الإنسانية والاجتماعية بجامعة حمد بن خليفة، قطر.
التعليقات (0)
الأكثر قراءة اليوم

خبر عاجل