كشفت مصادر موثوقة أن نموذج الذكاء الاصطناعي “كلود” التابع لشركة Anthropic تم استخدامه في عملية اعتقال الرئيس الفنزويلي نيكولاس مادورو من قبل الجيش الأميركي في بداية الشهر الماضي، مما يعكس تزايد اعتماد البنتاغون على تقنيات الذكاء الاصطناعي في العمليات العسكرية، حيث أوضحت صحيفة “وول ستريت جورنال” أن الإرشادات الخاصة باستخدام نموذج “كلود” تمنع استخدامه في تسهيل العنف أو تطوير الأسلحة أو القيام بعمليات المراقبة، وهو ما يعكس التزام الشركة بالمعايير الأخلاقية في استخدام تقنياتها، كما أن متحدثاً باسم Anthropic أكد عدم قدرته على التعليق حول ما إذا كان “كلود” أو أي نموذج ذكاء اصطناعي آخر قد استُخدم في عمليات معينة سواء كانت سرية أو غير سرية، مما يثير تساؤلات حول الشفافية في استخدام هذه التقنيات في المجالات العسكرية،.
كما أشار المتحدث إلى أن أي استخدام لنموذج “كلود” يجب أن يتماشى مع السياسات التي تحكم كيفية نشره سواء في القطاع الخاص أو عبر الجهات الحكومية، مما يعكس أهمية الالتزام بالمعايير الأخلاقية والقانونية في استخدام الذكاء الاصطناعي، حيث أن تزايد الاعتماد على هذه التقنيات في العمليات العسكرية يثير قلقاً بشأن المخاطر المحتملة التي قد تنجم عن استخدامها، خاصة في ظل عدم وضوح كيفية توجيه هذه النماذج في سياقات حساسة،.
وفي الوقت الذي تتزايد فيه المخاوف من استخدام الذكاء الاصطناعي في العمليات العسكرية، يبقى السؤال حول كيفية ضمان استخدام هذه التقنيات بشكل آمن ومسؤول، حيث أن الاعتماد المتزايد على الذكاء الاصطناعي في المجالات العسكرية يتطلب وضع ضوابط صارمة لضمان عدم تجاوز الحدود الأخلاقية والقانونية، مما يجعل من الضروري أن تتبنى الشركات والجهات الحكومية سياسات واضحة تحكم استخدام هذه التقنيات في المستقبل.

