إيران نموذجا.. كيف غيّر الذكاء الاصطناعي حروب القرن الـ21؟

شاركنا:
الذكاء الاصطناعي أصبح جزءا من العمليات العسكرية الحديثة (رويترز)

لم يعد استخدام الذكاء الاصطناعي في الحروب مجرد فكرة من أفلام الخيال العلمي. فالتقنيات القائمة على الذكاء الاصطناعي أصبحت بالفعل جزءًا من العمليات العسكرية الحديثة، حيث تُستخدم لتحليل كميات هائلة من البيانات وتحديد الأهداف وترتيب التهديدات وتحديد أولويات العمليات.

الذكاء الاصطناعي في الحروب

لكنّ خبراء يحذرون من أنّ هذا التطور قد يؤدي إلى تراجع الرقابة البشرية إلى مجرد ختم موافقة على قرارات تقترحها الخوارزميات. 

ففي غزة، استخدمت إسرائيل أنظمة ذكاء اصطناعي للمساعدة في تحديد الأهداف العسكرية وترتيب العمليات. كما تشير تقارير إلى أنّ الجيش الأميركي استخدم نموذج Claude الذي طورته شركة Anthropic خلال عمليات عسكرية، بينها عملية لاختطاف الرئيس الفنزويلي نيكولاس مادورو، وكذلك في هجمات ضد إيران.

ويرى خبراء أنه من المحتمل أن تكون بعض الصواريخ التي تستهدف طهران حاليًا، موجهة عبر أنظمة تعتمد على الذكاء الاصطناعي.

ويقول كريغ جونز، المحاضر في الجغرافيا السياسية بجامعة نيوكاسل لشبكة "سكاي نيوز" البريطانية، إنّ الذكاء الاصطناعي "يغير طبيعة الحرب الحديثة في القرن الـ21"، مضيفًا أنّ تأثيره قد يكون هائلًا إلى حد يصعب المبالغة في تقديره.

وتعمل هذه الأنظمة فيما يُعرف عسكريًا باسم أنظمة دعم القرار، حيث تجمع صور الأقمار الاصطناعية والاتصالات المعترضة وبيانات اللوجستيات ومعلومات وسائل التواصل الاجتماعي، ثم تحللها بسرعة تفوق قدرة أيّ فريق بشري، لتقترح على القادة العسكريين الأهداف الأكثر أهمية.

ورغم أنّ القرار النهائي يفترض أن يبقى بيد الإنسان، فإنّ الخبراء يخشون أن تؤدي سرعة المعارك وضغط الوقت، إلى اعتماد القادة بشكل شبه كامل على توصيات الذكاء الاصطناعي من دون تدقيق كاف. ويصف بعض الباحثين هذا الخطر، بأنه تحوّل البشر إلى مجرد جهة تصادق تلقائيًا على قرارات النظام.

ويزداد القلق بسبب أخطاء الذكاء الاصطناعي نفسها، إذ أظهرت اختبارات أنّ بعض النماذج قد تقدّم إجابات خاطئة بثقة عالية. وهذا ما يثير تساؤلات حول مدى موثوقية الاعتماد على هذه الأنظمة في بيئات شديدة الحساسية مثل ساحات القتال، حيث قد تكون أيّ هفوة مكلفة للغاية.

(ترجمات)