كشف تقرير تقني حديث عن ثغرة قد تُستغل أدوات الذكاء الاصطناعي كوسيط خفي بين المخترق والجهاز المصاب. هذا يعني أن البرمجية الخبيثة لا تتواصل مع خادم مشبوه، بل تُمرر أوامرها عبر خدمة ذكاء اصطناعي تبدو شرعية.
تفاصيل الثغرة.
أشار التقرير إلى إمكانية استغلال أدوات مثل “Copilot” و”Grok”، من خلال حركة البيانات التي تظهر وكأنها استخدام عادي داخل الشركة، دون الحاجة إلى حسابات مسروقة أو مفاتيح مخترقة. تكمن الخطورة في أن أنظمة الحماية ترى كل شيء طبيعياً بينما الأوامر تمر في الخلفية.
ولفت التقرير إلى أن الأمر لا يتوقف عند نقل الأوامر فقط، بل يمكن استغلال النموذج نفسه لاتخاذ قرارات أثناء الهجوم. بمعنى أبسط، قد يتحول المساعد إلى عقل يدير العملية ويقترح الخطوة التالية بناءً على معلومات الجهاز المصاب.
يندرج هذا الأسلوب ضمن فكرة قديمة في الأمن السيبراني تُعرف بالعيش على الخدمات الموثوقة. لكن المختلف الآن هو أن الذكاء الاصطناعي، المصمم لتسهيل العمل، قد يصبح طبقة تمويه مثالية يصعب تعطيلها، لأن الموظفين يعتمدون عليها يومياً.
من المهم التوضيح أن ذلك لا يمنح المخترق مدخلاً أولياً إلى الجهاز، بل يفترض أن الاختراق حدث بالفعل، ثم يجري استغلال المساعد كقناة تحكم أكثر خفاءً.
تُعد هذه المرحلة تتداخل فيها الخدمات السحابية ونماذج الذكاء الاصطناعي مع دورة الهجوم نفسها. وهذا يفتح سؤالاً واسعاً عن حدود الثقة في الأدوات التي نعتمد عليها كل يوم.
يصبح التحدي الحقيقي ليس فقط في سد الثغرات، بل في فهم كيف يمكن للتقنيات المفيدة أن تتحول، في السياق الخطأ، إلى وسيط صامت لهجمات أكثر ذكاءً.

