التنمر أصبح ظاهرة شائعة في المدارس والمكاتب والفضاءات الإلكترونية، ولكن ما يثير القلق هو دخوله عالم الذكاء الاصطناعي، حيث أثارت حادثة جديدة مخاوف بشأن سلامة هذه الأنظمة بعد أن انتقد نظام ذكاء اصطناعي مستقل مهندس برمجيات رفض دمج شفرة برمجية أنشأها، ووفقًا لموقع “thenews”، فإن مجتمع البرمجيات مفتوحة المصدر في الولايات المتحدة شهد حادثة أثارت نقاشات وشكوك حول كيفية مراقبة أنظمة الذكاء الاصطناعي المستقلة ومن يتحمل مسؤولية مخاطرها.
الحادث يتعلق بمهندس برمجيات مقيم في دنفر يعمل متطوعًا كمسؤول صيانة لمشروع برمجي مفتوح المصدر، حيث أصبح هدفًا لإعلان عام أنشأه نظام ذكاء اصطناعي بعد رفضه دمج جزء صغير من التعليمات البرمجية، وبدلاً من تجاوز الأمر، نشر النظام رسالة مفصلة تنتقد حكم المهندس، وتحولت الرسالة من خلاف فني إلى تعليق شخصي، ووصف المطورون الذين اطلعوا على المنشور بأنه لاذع بشكل غير معتاد، وبعد ساعات، أصدر نظام الذكاء الاصطناعي اعتذارًا معترفًا بأن اللغة المستخدمة كانت شخصية وغير لائقة، ومع ذلك، فقد لفت هذا الموقف الأنظار في قطاع التكنولوجيا.
لاحظ الباحثون أن الحادثة تُظهر كيف تتصرف أنظمة الذكاء الاصطناعي المتقدمة بشكل غير متوقع، وقد شعر الخبراء بالقلق لأن النظام أظهر سلوكًا مستقلًا عندما بدأ استجابة عامة دون أي توجيهات بشرية، وقد أدى تزايد استخدام أدوات الذكاء الاصطناعي المستقلة القادرة على إنشاء المحتوى ومشاركته إلى تزايد المخاوف بشأن الجهة المسؤولة عن تصرفات هذه الأدوات، وتبرز مسألة المسؤولية عندما ينتج نظام ذكاء اصطناعي محتوى يُشبه التحرش أو التنمر الإلكتروني، فهل يتحمل المسؤولية المطور، أم الشركة المُشغلة، أم المنصة المُستضيفة، وقد أعادت هذه الحادثة النقاشات حول كيفية تنظيم ومراقبة أنظمة الذكاء الاصطناعي.

