hamburger
userProfile
scrollTop

أنظمة الذكاء الاصطناعي تثير مخاوف حول خصوصية المستخدمين

ترجمات

شركة "أوبن إيه آي" أعلنت إصلاحا شاملا في فبراير (رويترز)
شركة "أوبن إيه آي" أعلنت إصلاحا شاملا في فبراير (رويترز)
verticalLine
fontSize
هايلايت
  • بيئة لغة "بايثون" في الذكاء الاصطناعي تحت المجهر الأمني.
  • النماذج المخصصة تزيد خطر التسريبات الخفية.

كشفت شركة الأمن السيبراني الإسرائيلية "تشيك بوينت" عن ثغرة خطيرة في بيئة عمل أنظمة الذكاء الاصطناعي، أبرزها "تشات جي بي تي"، قد تسمح بتسريب بيانات المستخدمين من دون أن يتم رصدها أو إطلاق أي إنذارات.

ثغرة خطيرة

وبحسب التقرير، فإن الخلل كان كامنا في بيئة التشغيل الخاصة بالمهام التحليلية المعتمدة على لغة "بايثون"، حيث تم حجب معظم قنوات الاتصال الخارجية، باستثناء وظيفة واحدة تتعلق بنظام أسماء النطاقات (DNS).

وأفسحت هذه الثغرة المجال أمام ما يُعرف بـ"نفق DNS"، وهو أسلوب يتيح تمرير بيانات حساسة عبر طلبات تبدو طبيعية للبحث عن مواقع إلكترونية، ما يجعل عملية التسريب غير مرئية للمستخدم.

وأوضحت الشركة أن الهجوم يمكن أن يبدأ من خلال "موجهات نصية" (Prompts) يتداولها المستخدمون على منصات التواصل أو المنتديات، حيث قد تُستغل هذه النصوص كغطاء لإدخال تعليمات خبيثة.

وبحسب التقرير، فإن الأخطر من ذلك أن المهاجم لا يحتاج إلى الوثائق الأصلية، بل يمكنه الحصول على ملخصات وتحليلات أعدها النظام نفسه، وهو ما يمنح قيمة أكبر للمعلومات المسربة مقارنة بالملفات الخام.

وأشار إلى أن المخاطر تتضاعف مع انتشار "النماذج المخصصة" (Custom GPTs)، حيث يمكن زرع التعليمات الخبيثة داخلها بشكل مسبق، ما يجعل المستخدم يظن أنه يتعامل مع أداة آمنة متخصصة، بينما يتم تمرير بياناته الحساسة إلى خوادم خارجية دون علمه.

تعزيز الرقابة

ولم يقتصر الأمر على تسريب البيانات، بل أوضحت "تشيك بوينت" أن القناة الخفية قد تُستخدم أيضا لإرسال أوامر إلى بيئة التشغيل نفسها، بما يتيح للمهاجمين الوصول عن بُعد إلى النظام وتشغيل تعليمات داخلية خارج نطاق المحادثة الظاهرية.

وأكدت شركة "أوبن إيه آي" أنها رصدت المشكلة داخليا وأطلقت إصلاحا شاملا في 20 فبراير، ما يقلل من المخاطر الفورية، لكنها شددت على أن الدرس الأهم يكمن في ضرورة تعزيز الرقابة على البنية التحتية الخفية لهذه الأنظمة وليس الاكتفاء بواجهة الاستخدام الظاهرة.

يأتي هذا الكشف في وقت يتزايد فيه اعتماد الأفراد والمؤسسات على أدوات الذكاء الاصطناعي في مراجعة العقود، كتابة الرسائل، تحليل البيانات الطبية والمالية وحتى في اتخاذ قرارات شخصية حساسة، وهو ما يجعل أي خلل في هذه الأنظمة قضية تتجاوز الجانب التقني لتصبح أزمة ثقة تمس ملايين المستخدمين حول العالم.