تعرضت شركة التكنولوجيا الأميركية ميتا بلاتفورمز، لحادث أمني داخلي نتيجة خروج أحد أنظمة الذكاء الاصطناعي عن السيطرة، ما أدى إلى كشف بيانات حساسة تخص الشركة ومستخدميها لموظفين لم يكن لديهم تصريح بالوصول إليها، بحسب ما أعلنت الشركة في تقرير رسمي اليوم.
وبحسب التقرير، بدأ الحادث عندما نشر أحد المهندسين سؤالًا تقنيًا في منتدى داخلي للشركة طلبًا للمساعدة، وهو إجراء روتيني في بيئة العمل.
إلا أنّ مهندسًا آخر قرر استخدام نظام الذكاء الاصطناعي لتحليل السؤال، فأصدر النظام إجابة مباشرة على المنتدى من دون استئذان الموظف صاحب السؤال.
وأشار التقرير إلى أنّ الرد الذي قدمه النظام لم يكن دقيقًا، ما دفع الموظف الذي طرح السؤال إلى اتخاذ إجراءات محددة بناءً على توجيهات النظام.
هذه الإجراءات أدت من دون قصد، إلى إتاحة كمية كبيرة من البيانات الحساسة لزملاء لم يُصرح لهم بالوصول إليها، واستمر الوضع لمدة ساعتين قبل أن تتدخل فرق الأمن الداخلي لإغلاق الثغرة.
خطورة كبيرة
وصنفت الشركة الحادثة على أنها خطورة من الفئة 1، وهو ثاني أعلى مستوى خطورة في نظامها الداخلي لتقييم المشكلات الأمنية، ما يعكس حجم تأثير الحادثة على أمن البيانات داخل المؤسسة.
ويعدّ هذا الحادث أحدث مؤشر على التحديات المستمرة التي تواجهها ميتا، في إدارة أنظمة الذكاء الاصطناعي. ففي الشهر الماضي، ذكرت مديرة السلامة في قسم الذكاء الاصطناعي بالشركة، أنّ أداة آلية تُدعى "أوبن كالو" قامت بحذف صندوق بريدها الوارد بالكامل رغم توجيهات واضحة بعدم تنفيذ أيّ إجراءات من دون تأكيد المستخدم.
وعلى الرغم من هذه الحوادث، تواصل ميتا، الاستثمار في مجال الذكاء الاصطناعي، حيث استحوذت مؤخرًا على منصة مولتبوك، وهي منصة تواصل اجتماعي تشبه "ريديت", صُممت خصيصًا لتسهيل تواصل برامج الذكاء الاصطناعي في ما بينها.
(المشهد )