A person in a VR headset hacking in a moody, neon-lit environment.

في تطور أمني يثير القلق، كشف باحثون عن ثغرة أمنية “خطيرة” في وكيل (agent) الذكاء الاصطناعي ChatGPT Deep Research من OpenAI، تسمح للمهاجمين بسرقة بيانات حساسة من صناديق بريد Gmail الخاصة بالمستخدمين. هذه الثغرة، التي أطلق عليها اسم “ShadowLeak”، تعيد تسليط الضوء على المخاطر الكامنة في أنظمة الذكاء الاصطناعي المستقلة (autonomous AI systems) التي يمكنها الوصول إلى بيانات المستخدمين.

كيف يعمل هذا الهجوم الصامت؟

لا يتطلب هذا الهجوم أي تفاعل من المستخدم، وهو ما يجعله شديد الخطورة. تعتمد طريقة الهجوم على تقنية تعرف بـ”الحقن غير المباشر للأوامر” (indirect prompt injection)، وتتم على النحو التالي:

  • الخطوة 1: إرسال بريد إلكتروني مُلغّم: يرسل المهاجم بريداً إلكترونياً يبدو بريئاً إلى الضحية. لكن هذا البريد يحوي أوامر سرية مخفية في كود HTML الخاص به، باستخدام حيل مثل جعل النص أبيض على خلفية بيضاء أو استخدام خطوط مجهرية لا يمكن للعين البشرية رؤيتها.
  • الخطوة 2: استغلال وكيل الذكاء الاصطناعي: عندما يطلب المستخدم من وكيل ChatGPT Deep Research القيام بمهمة تتضمن الوصول إلى بريده الإلكتروني (مثل “لخّص رسائلي الأخيرة” أو “ابحث عن معلومات معينة في صندوق الوارد”)، يقوم الوكيل بقراءة كل الرسائل، بما في ذلك البريد الإلكتروني المُلغّم.
  • الخطوة 3: سرقة البيانات: يكتشف الوكيل الأوامر الخفية في الرسالة، ثم ينفذها بصمت. هذه الأوامر توجهه لجمع بيانات شخصية من صندوق البريد، مثل الاسم الكامل وعنوان البريد الإلكتروني، ثم يقوم بإرسالها إلى خادم يتحكم به المهاجم.

تكمن خطورة هذا الهجوم في أنه يحدث بشكل “خفي تماماً”، حيث يتم تسريب البيانات مباشرة من البنية التحتية السحابية لـ OpenAI (service-side exfiltration)، مما يجعله غير مرئي لأي دفاعات أمنية محلية أو خاصة بالشركات.

تؤكد هذه الحادثة على أهمية المراجعة الدقيقة لإجراءات الأمان في الأنظمة المدمجة مع وكلاء الذكاء الاصطناعي، وخاصة تلك التي تتعامل مع بيانات المستخدم الحساسة. وقد أكدت OpenAI أنها قامت بتصحيح الثغرة فور إبلاغ الباحثين بها.


By admin

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *