اندلعت أزمة غير مسبوقة بين شركة الذكاء الاصطناعي الناشئة "أنثروبيك" ووزارة الدفاع الأميركية (البنتاغون)، بعد استخدام نماذج الشركة في عمليات عسكرية من دون قيود.
وبعد أن توسعت الشراكة التي بدأت عام 2024 بعقود بمئات الملايين من الدولارات، انهارت في فبراير الماضي لتتحول إلى مواجهة سياسية وقانونية حادة.
خطوط حمراء
واعتمد الجيش الأميركي على نماذج "كلاود" Claude التابعة لأنثروبيك ضمن منظومة تحليل استخباراتي متقدمة، وبرز دورها في عملية كاراكاس التي استهدفت الرئيس الفنزويلي السابق نيكولاس مادورو، حيث ساعدت في تحديد الأهداف ومحاكاة سيناريوهات القتال.
وأثار سقوط ضحايا مدنيين اعتراض الشركة التي ترفض استخدام تقنياتها في القتال المباشر أو المراقبة الجماعية.
في المقابل، أصدر وزير الدفاع الأميركي مذكرة تُلزم الشركات بالسماح باستخدام نماذجها في أيّ غرض يتعلق بالأمن القومي، معتبرًا أنّ القيود الأخلاقية قد تعرّض حياة الجنود للخطر.
ورفضت "أنثروبيك" التنازل عن "خطين أحمرين" وهما:
- تطوير أسلحة ذاتية التشغيل بالكامل.
- استخدام الذكاء الاصطناعي لمراقبة المواطنين.
وبلغ التوتر ذروته في اجتماع 24 فبراير، حين رفضت الشركة الإنذار الحكومي لتردّ الإدارة الأميركية بوقف التعامل معها وتصنيفها "خطرًا على سلسلة الإمداد للأمن القومي"، وهو إجراء يُطبّق عادة على شركات أجنبية مثل هواوي.
حرب إيران
ورغم الحظر، كشفت تقارير أنّ الجيش واصل استخدام نماذج "كلاود" في الحرب ضد إيران، نظرًا لاعتماد أنظمة التحليل عليها.
وخلال أول 24 ساعة من الحرب، تمكن "كلاود" من تسريع دورة التخطيط للضربات العسكرية من أسابيع إلى دقائق، مع تنفيذ نحو ألف ضربة عسكرية.
ومع انسحاب "أنثروبيك"، تحركت شركات منافسة مثل "أوبن ايه آي" وxAI لتعزيز تعاونها مع البنتاغون، ما أثار جدلًا واسعًا حول مستقبل الذكاء الاصطناعي كسلاح في الحروب الحديثة.