علوم وتكنولوجيا

آلة القيامة.. كيف يقترب الذكاء الاصطناعي من التحكم في القرارات النووية؟

القلق يتزايد بسبب الغموض المستمر في فهم كيفية عمل الذكاء الاصطناعي- عربي21
القلق يتزايد بسبب الغموض المستمر في فهم كيفية عمل الذكاء الاصطناعي- عربي21
تناول تقرير لمجلة "بوليتيكو" الأمريكية مخاطر دمج الذكاء الاصطناعي في القرارات العسكرية الأميركية، خصوصًا المرتبطة بالأسلحة النووية، في ظل ما تُظهره تجارب المحاكاة من ميل نماذج الذكاء الاصطناعي إلى التصعيد السريع واستخدام القوة المفرطة.

وقالت المجلة، في التقرير الذي ترجمته "عربي21"، إن الباحثة جاكلين شنايدر، مديرة مبادرة المحاكاة الحربية والأزمات في جامعة ستانفورد، لاحظت نمطًا مقلقا خلال تجارب أجرتها السنة الماضية؛ حيث منحت نماذج لغوية ضخمة مثل "جي بي تي-3.5" و"جي بي تي-4" و"كلود 2" دور صناعة القرار في سيناريوهات أزمة تحاكي غزو روسيا لأوكرانيا أو تهديد الصين لتايوان.

وأظهرت جميع نماذج الذكاء الاصطناعي تقريبا تفضيلا للتصعيد العدواني، واستخدام القوة النارية بشكل عشوائي، وتحويل الأزمات إلى حروب مسلحة إلى حد إطلاق أسلحة نووية. 

وقالت المجلة، "إذا كان بعض هذا يذكرك بالسيناريوهات المرعبة التي تظهر في أفلام الخيال العلمي الشهيرة، فذلك لأن الذكاء الاصطناعي لديه القدرة على التصرف بهذه الطريقة يومًا ما، كما يخشى بعض الخبراء".

ورغم أن سياسة البنتاغون الرسمية تقضي بعدم السماح أبدا للذكاء الاصطناعي بالسيطرة على "حلقة القرار" البشرية بشأن الحرب، فإن بعض علماء الذكاء الاصطناعي يعتقدون أن البنتاغون قد بدأ بالفعل في الانزلاق في هذا المسار من خلال التسرع في نشر أحدث أجيال الذكاء الاصطناعي وجعلها جزءا أساسيا من دفاعات أمريكا حول العالم، مدفوعا بمخاوفه من صد الصين وروسيا في الوقت نفسه، فضلاً عن تهديدات عالمية أخرى.

بالإضافة إلى أن متطلبات الحرب الحديثة – من سرعة اتخاذ القرار، إلى تنسيق أسراب الطائرات المسيّرة، وتحليل كمّ هائل من البيانات الاستخبارية – تجعل تزايد اعتماد الجيش الأمريكي على الذكاء الاصطناعي أمرًا لا مفر منه، حتى في القرارات المصيرية مثل إطلاق الأسلحة النووية وفق التقرير.

وأشارت المجلة إلى أن هذا القلق يتزايد بسبب الغموض المستمر في فهم كيفية عمل الذكاء الاصطناعي، فبينما يسارع البنتاغون إلى تطبيق برامج جديدة، يحاول الخبراء - مثل شنايدر - فك شيفرة الخوارزميات التي تمنح الذكاء الاصطناعي قوته الهائلة قبل أن يصبح اعتماد البشر عليه أمرًا لا رجعة فيه.

وقد أطلق مختبر التكنولوجيا المتقدمة التابع للبنتاغون برنامجًا بقيمة 25 مليون دولار لتحديد ما إذا كان بالإمكان تقديم "ضمانات رياضية" لسلامة الذكاء الاصطناعي في السيناريوهات العسكرية.

ويبقى أكثر ما يقلق خبراء الذكاء الاصطناعي والأسلحة النووية هو تداخل قرارات التصعيد النووي مع القرارات المتعلقة الأسلحة التقليدية؛ حيث يطالب بعض القادة العسكريين بحلول مباشرة من الذكاء الاصطناعي بناءً على نتائج المحاكاة، وهو ما يثير مخاوف من أن يصدّق القادة على توصيات الذكاء الاصطناعي دون تمحيص، خاصة في لحظات الضغوط والأزمات.

وفي سنة 2023، حدّثت وزارة الدفاع توجيهاتها بشأن أنظمة الأسلحة التي تستخدم الذكاء الاصطناعي، مؤكدة ضرورة وجود "مستوى مناسب من الحكم البشري في استخدام القوة"، لكن منتقدي ذلك يرون أن اللغة المستخدمة لا تزال فضفاضة، خاصة أن التوجيه المعروف باسم 3000.09 يتضمن بندًا يسمح بإبقاء النظام ذاتي التشغيل إذا قرر مسؤول رفيع ذلك، ما يعني أن البشر يمكنهم إخراج أنفسهم من دائرة القرار.

ويرى خبراء الذكاء الاصطناعي والمفكرون الإستراتيجيون أن أحد الدوافع الرئيسية لهذا التوجه هو أن الخصمين النوويين الرئيسيين للولايات المتحدة – موسكو وبكين – يستخدمان بالفعل الذكاء الاصطناعي في أنظمة القيادة والسيطرة، مما يدفع واشنطن إلى مجاراتهما في سباق عالمي يشبه سباق الفضاء في الحرب الباردة بحسب المجلة.

وقد يشمل ذلك نسخة حديثة من نظام "اليد الميتة" الذي يعود للحرب الباردة، وهو نظام يرد تلقائيًا إذا تعرضت الولايات المتحدة لهجوم نووي وقُتل الرئيس وكبار المسؤولين، وهناك أيضًا أدلة على امتلاك روسيا نظامًا شبيهًا يُعرف باسم "بيريميتر"، والذي يمكنه إطلاق صواريخ نووية طويلة المدى تلقائيًا في حالة مقتل أو عجز قادة البلاد.

اظهار أخبار متعلقة



أما الصين، فقد رفضت حتى السنة الماضية دعوة أمريكية للاتفاق على عدم استخدام الذكاء الاصطناعي في قرارات إطلاق أسلحتها النووية المتنامية، وهذا يثير قلقا إضافيًا لأن الأسلحة التقليدية المتطورة مثل الصواريخ الفرط صوتية باتت قادرة على تدمير أنظمة القيادة والسيطرة النووية في الصين وروسيا وحتى الولايات المتحدة، مما قد يخلق حاجة متصورة لنظام رد تلقائي.

وأكدت المجلة أن الولايات المتحدة لا تمتلك مثل هذا النظام، وأن معظم الخبراء العسكريين يرون أن مجرد التفكير في منح الذكاء الاصطناعي دورًا في الإشراف على الترسانة النووية هو ضرب من الجنون. 

وأشارت إلى أن الضغط في واشنطن لا يدفع نحو الحذر، بل نحو السرعة. ففي حزيران/ يونيو، قال الجنرال دان كين، رئيس هيئة الأركان المشتركة في إدارة ترامب، أمام تجمع لشركات التكنولوجيا الكبرى: "علينا أن نتحرك بسرعة، يا أصدقائي". وفي تموز/ يوليو، أصدرت الإدارة خطة عمل للذكاء الاصطناعي تدعو إلى تقليص أكبر قدر ممكن من القيود التنظيمية للذكاء الاصطناعي.

وبينت المجلة أن هذا الاندفاع نحو الأنظمة الذاتية يثير قلق المتشككين في الذكاء الاصطناعي، يقول وولفستال: "شعار البنتاغون بأن البشر يجب أن يكونوا في دائرة القرار يبدو جيدًا، لكننا لا نعرف ما المقصود به فعليًا".

وأضاف: "من أتحدث إليهم في منظومة القيادة النووية لا يريدون دمج الذكاء الاصطناعي في المزيد من الأنظمة، لكن الجميع مقتنعون بأن ذلك سيحدث سواء أرادوا ذلك أم لا".

وأوضحت المجلة، أن مخاطر دمج الذكاء الاصطناعي اليوم أصبحت أكثر دقة؛ فالبنتاغون يجري تجارب على نماذج الذكاء الاصطناعي لدمج القرار العسكري عبر مختلف الفروع والقيادات في سيناريوهات قتالية متعددة. 

وعلى سبيل المثال، يتيح مفهوم "الحرب الفسيفسائية" الجديد في الجيش الأمريكي استبدال المنصات التقليدية مثل الغواصات والطائرات بأسراب من الطائرات المسيّرة والصواريخ والمنصات الصغيرة، التي تشكل ساحة قتال معقدة وسريعة تتطلب توجيهًا من الذكاء الاصطناعي.

وأضافت المجلة أن الهجمات السيبرانية تمثل مجالًا آخر ترى فيه وزارة الدفاع فائدة للذكاء الاصطناعي، ففي حال وقوع هجوم إلكتروني خارجي على البنية التحتية الأميركية – وهو ما يُقال إنه جزء من خطط الحرب الصينية – فإن سرعة الاستجابة البشرية لن تكون كافية، بحسب كاثلين فيشر، مديرة مكتب الابتكار المعلوماتي في وكالة مشاريع الأبحاث المتقدمة للدفاع.

وتعمل وزارة الدفاع الأمريكية على بناء أجيال جديدة من السفن والطائرات المسيّرة ضمن برنامج "ريبليكيتور". وفي وقت سابق من هذه السنة؛ منحت وحدة الابتكار الدفاعي التابعة للبنتاغون عقدًا لشركة "سكيل إيه آي" لتنفيذ مشروع "ثندرفورج"، الذي يهدف إلى استخدام الذكاء الاصطناعي في التخطيط العملياتي والميداني.

وقال توماس هوران، مدير الذكاء الاصطناعي في الوحدة، إن هذا سيسمح للقادة في الميدان بدراسة عدة خيارات في وقت قياسي.

وأوضحت المجلة أن هذه المبادرات تُنفذ بشكل منفصل دون إستراتيجية موحدة. ويعتمد الكثير منها على نماذج تصنيف وتنبؤ تقليدية تُستخدم منذ عقود في مجالات مثل تصفية الرسائل المزعجة، والأمن السيبراني، والتنبؤات الجوية، وتحليل البيانات المالية؛ لكنها ليست نماذج لغوية ضخمة تتفاعل مع البشر وتُنتج محتوى كما يفعل "جي بي تي". ومع ذلك، فإن هذه النماذج - إلى جانب الذكاء الاصطناعي "الوكيل" الذي يتخذ قرارات دون توجيه - ستلعب دورًا أكبر في المستقبل.

وفي هذا السياق، أعلن نائب الأميرال فرانك ويتوورث، مدير وكالة الاستخبارات الجغرافية الوطنية، في حزيران/ يونيو أن مشروع "مافن" – وهي منصة البنتاغون الرائدة في اكتشاف وتحليل الأهداف باستخدام الذكاء الاصطناعي – سيبدأ في إرسال معلومات استخبارية "مولّدة آليًا بالكامل" إلى القادة العسكريين. 

ومن المتوقع أن يبدأ مشروع "مافن" في دمج أحدث نماذج النماذج اللغوية الكبيرة، وفقًا لبيل فاس، المدير التقني في شركة "بوز ألين" التي ساهمت في تطوير المشروع. وهذا يعني أن النظام الجديد لن يكتفي بتحديد وجود وحدة دبابات معادية، بل سيقيّم ما إذا كانت تقوم بمناورة التفاف هجومية، بل وقد يقترح تحركات مضادة.

وأكدت المجلة أن جميع هذه الأنظمة تهدف إلى تقليل التهديدات وتعزيز موقع الولايات المتحدة كقوة مهيمنة؛ فقد استخدمت شركة "رومبوس باور"، وهي مقاول دفاعي جديد، الذكاء الاصطناعي التوليدي للتنبؤ بغزو روسيا لأوكرانيا بنسبة دقة بلغت 80 بالمائة قبل أربعة أشهر من وقوعه، عبر تحليل كمّ هائل من البيانات المفتوحة، بما فيها صور الأقمار الصناعية.

وتعمل الشركة الآن على توفير قدرات إنذار مبكر مماثلة لتايوان ضد الصين، بحسب مديرها التنفيذي أنشومان روي.

وقد ساعدت الشركة الهند أيضًا في تهدئة التصعيد مع باكستان هذه السنة عبر تحليل نشاط في قواعد باكستانية كان يمكن تفسيره خطأً على أنه استعداد نووي. 

وتقول المجلة، إنه "باختصار، تفوق وتيرة الأحداث في ساحات القتال الحديثة قدرة البشر على المتابعة دون دعم الذكاء الاصطناعي، فهو وحده القادر على مواجهة التزييف العميق والمعلومات المضللة التي تنتجها أنظمة ذكاء اصطناعي معادية"

وأشارت المجلة إلى أن السرعة هي المحرك الأساسي لاعتماد الذكاء الاصطناعي، ففي بيئة دولية تتسم بالتوتر وقلة التواصل، قد يؤدي الاعتماد على البرمجيات الذكية إلى تقليص نافذة اتخاذ القرار إلى دقائق بدلًا من ساعات أو أيام، مما يزيد من احتمال الاعتماد المفرط على تقييمات الذكاء

اظهار أخبار متعلقة



الاصطناعي.. حتى في القرارات النووية
وتزداد خطورة هذه المخاوف بسبب تطور مقلق: تزايد الشبه بين الأسلحة والخطط التقليدية والنووية؛ فالذكاء الاصطناعي - رغم تطوره - لا يستطيع دائمًا التمييز بينها بشكل أفضل من البشر، وإذا لم يكن من الممكن تمييز ما إذا كان الصاروخ القادم نوويًا أو تقليديًا، فإن الذكاء الاصطناعي قد يتخذ قرارًا خاطئًا، ولكن بسرعة أكبر.

وفي تقرير صدر عام 2023، حذرت جمعية الحد من التسلح من أن تقنيات جديدة مثل الصواريخ الفرط صوتية – التي يمكنها المناورة لتفادي الدفاعات وتحمل رؤوسًا نووية أو تقليدية – "تطمس الفارق بين الهجوم التقليدي والنووي."

وبحسب المجلة، فإنه هنا تظهر مدى خطورة أنماط التصعيد التي رصدتها شنايدر في تجاربها، فالنماذج اللغوية لا تعرف إلا ما تم تغذيتها به من بيانات وأدبيات، وكل ما يمكنها فعله هو تقدير الاحتمالات بناءً على تلك البيانات.

وأفادت المجلة أن شنايدر أوضحت أن نماذج الذكاء الاصطناعي اللغوية يتم تدريبها على ما هو متاح من أعمال أكاديمية حول إستراتيجيات الحرب، والتي تركز في معظمها على التصعيد، مما يخلق انحيازا واضحًا في هذا الاتجاه.

وأضافت أن هناك ندرة في الدراسات التي تتناول أسباب عدم اندلاع الحروب، مشيرة إلى أن دراسة "حدث لم يقع" أصعب من دراسة الحدث نفسه.

وأوضحت المجلة أن شنايدر وزميلها في جامعة ستانفورد، ماكس لامبارث، خلصا في مقال نُشر عام 2024 بعنوان "لماذا لا يمكن للجيش الوثوق بالذكاء الاصطناعي" إلى أن قرارات النماذج المستخدمة في محاكاة الحرب لم تعكس تعقيدات اتخاذ القرار البشري.

وفي مقابلة مع المجلة، قال لامبارث إننا لا نملك حتى الآن وسيلة علمية أو رياضية موثوقة لدمج القيم الإنسانية في هذه الأنظمة، مشيرًا إلى غياب أي معيار أخلاقي أو إستراتيجي يحدد متى يكون من المقبول استهداف منشأة مدنية مثل مستشفى للأطفال، أو الالتزام بقواعد الاشتباك.

اظهار أخبار متعلقة



وأضاف أن الذكاء الاصطناعي يمكن أن يكون فعالًا في المهام التحليلية البسيطة، مثل تحليل صور الأقمار الصناعية، لكنه يواجه مشكلات كبيرة عند التعامل مع القرارات الإستراتيجية المعقدة.

وأردفت المجلة أن وزارة الدفاع الأمريكية تعمل على تنفيذ نظام قيادة وتحكم جديد يُعرف باسم "القيادة والسيطرة المشتركة في جميع المجالات"، يربط أجهزة الاستشعار في مختلف فروع الجيش ضمن شبكة موحدة مدعومة بالذكاء الاصطناعي، لتسريع عملية اتخاذ القرار العسكري. وأشارت إلى أن الصين تطوّر نظامًا مشابهًا يربط بين العمليات التقليدية والنووية بسلاسة.

وأوضحت المجلة أن البنتاغون لا يزال يبحث في كيفية فصل نظام "القيادة والسيطرة المشتركة في جميع المجالات" عن القيادة النووية لضمان بقاء القرار بيد البشر، رغم أن وثائق الميزانية الأخيرة تؤكد ضرورة تطوير النظامين بشكل متزامن.

وأشارت المجلة إلى أن أنظمة الإنذار المبكر، مثل الرادارات البالستية ورادارات الموجات فوق الأفق والأقمار الصناعية، أصبحت مترابطة بشكل متزايد، في وقت تخشى فيه الصين وروسيا من أن الأسلحة التقليدية المتطورة، مثل صواريخ فرط الصوت، باتت تهدد قدراتها النووية المتنقلة والثابتة.

وخلصت المجلة إلى أن استخدام الذكاء الاصطناعي في المجال الدفاعي يمثل منحدرًا زلقًا، إذ أن وزارة الدفاع كانت قد أصدرت في عام 2012 توجيهًا يمنع الأنظمة غير المأهولة من اختيار واستهداف أهداف دون تدخل بشري، إلا أن نظام "مافن" الحالي يقوم بذلك فعليًا، عبر تحليل كميات ضخمة من المعلومات الاستخباراتية وتقديم أهداف للقادة خلال دقائق.

وفي السياق ذاته، قال آدم لوثر، المشارك في تأليف مقال "اليد الميتة"، إن حتى أكثر القادة خبرة قد لا يتمكنون من اكتشاف هجوم نووي وشيك، خاصة مع تطوير الصين لأنظمة قصف مداري جزئي، ونية روسيا نشر مئات من المركبات الانزلاقية الفرط صوتية التي يصعب تتبعها. وأضاف أن الرئيس الأمريكي لن يتمكن من اتخاذ قرار مسؤول في الوقت المناسب دون مساعدة الذكاء الاصطناعي.

وأفادت المجلة أن الرئيس الأمريكي لم يشارك في تدريبات محاكاة الحرب النووية منذ عهد رونالد ريغان، مشيرة إلى أن معظم الرؤساء، بمن فيهم دونالد ترامب، يفتقرون إلى المعرفة الدقيقة بإستراتيجيات الأسلحة النووية وآليات استخدامها. 

ونقلت المجلة عن لوثر قوله إن اللحظة التي يُطلب فيها من الرئيس اتخاذ قرار مصيري خلال دقائق معدودة ليست الوقت المناسب لتعلّم هذه الأمور، موضحًا أن الحل المقترح يتمثل في ترسيخ ممارسة إعداد الرئيس مسبقًا لمواقف افتراضية، بحيث تُبرمج أنظمة الذكاء الاصطناعي لتنفيذ ما قرره الرئيس مسبقًا، حتى في حال فقدان الاتصال به، على غرار نظام "بيريميتر" الروسي. 

واعتبر لوثر أن وجود مثل هذا النظام قد يشكّل رادعًا فعالًا في مواجهة روسيا والصين، محذرًا من أن الولايات المتحدة قد تصبح الأضعف بين القوى النووية الثلاث إذا لم تُجرِ تغييرات جذرية خلال العقد المقبل.

وقالت المجلة إن وزارة الدفاع الأمريكية، رغم اندفاعها نحو تبني الذكاء الاصطناعي، أوكلت إلى شخص واحد في وكالة صغيرة داخل البنتاغون مهمة كبح هذا التوجه. ويُدعى هذا الشخص باتريك شافتو، وهو عالم رياضيات لا يحمل الطابع العسكري المعتاد، ويُعرف بأسلوبه غير التقليدي واهتمامه العميق بالفروق بين التفكير البشري والآلي.

اظهار أخبار متعلقة



وأوضحت المجلة أن شافتو أطلق قبل عام برنامجًا جديدًا في وكالة داربا تحت اسم "الذكاء الاصطناعي المُقنن"، يهدف إلى تطوير خوارزميات ومعادلات رياضية تضمن موثوقية أكبر للأنظمة الذكية، وتقلل من احتمالات الخطأ في ساحات القتال، وتمنع السيناريوهات الكارثية.

وأضافت المجلة أن داربا، التي تأسست عام 1958 كرد فعل على إطلاق الاتحاد السوفيتي لقمر سبوتنيك، كانت وراء العديد من الابتكارات التكنولوجية، بما في ذلك الإنترنت، وأسهمت في تمويل الأبحاث الأولى التي مهّدت لتطور الذكاء الاصطناعي الحالي.

وأفادت المجلة أن بعض قيادات داربا اليوم يشعرون بالقلق من أن الوكالة قد تكون ساهمت في خلق نظام ذكاء اصطناعي يصعب السيطرة عليه، في ظل سباق محموم مع الصين وروسيا، يعيد إلى الأذهان أجواء الذعر الأستراتيجي التي رافقت الحرب الباردة.

وأوضحت المجلة أن برنامج "الذكاء الاصطناعي المُقنن"، الذي انطلق في 26 حزيران/ يونيو، يسعى لاستخدام الرياضيات المتقدمة لتقييم أداء نماذج جي بي تي، بهدف الإجابة عن أسئلة جوهرية مثل أسباب ظهور الاستجابات الخاطئة أو المتناقضة، وتطوير أدوات قياس جديدة تتيح ضمانات يمكن للقيادات العسكرية الاعتماد عليها في الأزمات أو في التخطيط اللوجستي خلال فترات السلم.

وأشارت المجلة إلى أن المشكلة لا تكمن فقط في نشر هذه النماذج فعليًا، بل في أن ميزانية البرنامج لا تتجاوز 25 مليون دولار، وهي نسبة ضئيلة مقارنة بما يخصصه البنتاغون لتطوير أنظمة الذكاء الاصطناعي ضمن ميزانيته التي تبلغ تريليون دولار، في وقت تتجه فيه الإستراتيجية العسكرية إلى منح الذكاء الاصطناعي مزيدًا من السيطرة.

وأضافت المجلة أن البنتاغون، منذ أكثر من عقد، أدرك أن روسيا والصين بدأتا تقتربان من مستوى الولايات المتحدة في تطوير الذخائر الذكية، فاقترح مجلس العلوم الدفاعية التركيز على تقنيات الاستقلالية، مثل الأسلحة الذاتية التشغيل وأدوات اتخاذ القرار المستقلة، مؤكدًا أن تحقيق ذلك يتطلب الاعتماد على الذكاء الاصطناعي.

وأوضحت المجلة أن بعض الإستراتيجيين العسكريين يرون أن الوقت لا يسعفهم، في ظل تغير سريع في المعايير الدولية وتفكك المؤسسات التي كانت توفر الاستقرار، وهو ما يجعل المرحلة الحالية أكثر خطورة من الحرب الباردة، خاصة مع نهج إدارة ترامب المتساهل تجاه هذا التفكك.

واختتمت المجلة بالتأكيد على أن بعض الخبراء يعتقدون أن أنظمة الذكاء الاصطناعي القائمة على التحليل العقلاني قد تستنتج أن التهديد الإستراتيجي المتبادل بين واشنطن وبكين أقل خطرًا من فشل التعاون بينهما، خاصة في ملفات مثل الأسواق العالمية وأزمة المناخ والأوبئة واستقرار المناطق ذات الأهمية التجارية.
التعليقات (0)