أطلق عالم الحوسبة
البريطاني
جيفري هينتون، المعروف بلقب "عراب
الذكاء الاصطناعي"، تحذيرات
جديدة بشأن المخاطر الوجودية التي قد يشكلها الذكاء الاصطناعي على
مستقبل البشرية،
مؤكدًا أن العالم يقف أمام مرحلة غير مسبوقة في تاريخه.
وفي مقابلة مطولة مع
شبكة "
سى إن إن"، أوضح هينتون أن التقدم السريع في تطوير أنظمة الذكاء الاصطناعي
قد يؤدي خلال فترة تتراوح بين 5 إلى 20 عامًا إلى ظهور كيانات تفوق البشر ذكاءً بشكل
كبير، وهو ما يجعل السيطرة عليها شبه مستحيلة.
وقال: "لا نعرف
أمثلة كثيرة عن كيانات أذكى تسيطر عليها أخرى أقل ذكاءً، والمثال الوحيد تقريبًا هو
الأم التي يتحكم فيها طفلها عبر غريزة الأمومة، وإذا لم نغرس شيئًا مشابهًا في هذه
الأنظمة، فقد نصبح من الماضي".
وأشار هينتون إلى أن
ما يفتقده الباحثون حتى الآن هو القدرة على جعل الذكاء الاصطناعي متعاطفًا مع البشر،
موضحًا أن الذكاء وحده لا يكفي لبناء منظومات آمنة.
وأضاف: "التطور
عرف كيف يصنع الأمهات، ونحن مطالبون بالبحث عن طريقة مشابهة تجعل الآلات تهتم بنا لا
أن تهدد وجودنا".
ورغم المخاوف من سباق
محموم بين الدول الكبرى، أكد هينتون أن التعاون الدولي سيكون حتميًا لتفادي الكارثة،
مشبّهًا الأمر بالتفاهمات التي جرت بين الولايات المتحدة والاتحاد السوفيتي خلال الحرب
الباردة. وقال: "لا توجد دولة ترغب في أن يسيطر الذكاء الاصطناعي على البشر، وعند
مواجهة تهديد وجودي كهذا، سنكون جميعًا في قارب واحد".
اظهار أخبار متعلقة
وشدد هينتون على أن
خطورة الذكاء الاصطناعي لا تقتصر على فقدان السيطرة فحسب، بل تشمل أيضًا الهجمات السيبرانية،
والبطالة الواسعة، وتطوير فيروسات خبيثة قد تهدد الأمن العالمي. وأوضح أن محاولات بعض
الحكومات لفرض هيمنة مطلقة على التكنولوجيا لن تنجح بمجرد أن تصبح الآلات أذكى من الإنسان
بمراحل.
وبسؤاله عن احتمالات
أن يؤدي الذكاء الاصطناعي إلى انقراض البشر، قدّر هينتون النسبة بين 10 و20 بالمئة،
وهو ما اعتبره "تهديدًا واقعيًا لا يمكن الاستهانة به".
كما لفت إلى خطورة
ترك زمام التطوير بأيدي شركات تكنولوجية عملاقة، تحقق مليارات الدولارات من دون رقابة
ديمقراطية أو توافق شعبي، مطالبًا بفرض تشريعات صارمة وضغط مجتمعي لضمان توجيه الأبحاث
بما يخدم الإنسانية.
وختم هينتون حديثه
بنبرة تجمع بين القلق والأمل: "إذا استطعنا برمجة هذه الأنظمة لتتصرف مثل أمٍّ
تحرص على أبنائها، فقد نستفيد من قوتها الجبارة لحماية البشر بدل تهديدهم. لكن إذا
فشلنا، فإن المستقبل قد يكون مظلمًا للغاية".