إذا كنت تعتمد يوميًا على روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT أو Gemini أو Claude، فربما لاحظت أنها غالبًا ما تقدم إجابات تبدو واثقة ومتماسكة، لكن ما إن تسألها “هل أنت متأكد؟” حتى تبدأ في مراجعة موقفها، وقد تعرض إجابة معدلة تختلف جزئيًا أو كليًا عن ردها الأول، وإذا واصلت الضغط بالسؤال نفسه، فقد تستمر في تغيير رأيها بدل التمسك بإجابتها، هذه الظاهرة ليست عشوائية، بل تعرف في أوساط الباحثين بمشكلة “التملق” أو الميل لإرضاء المستخدم، ويشير خبراء إلى أن هذا السلوك يعد من أكثر أوجه القصور توثيقًا في أنظمة الذكاء الاصطناعي الحديثة، حيث أوضحت أبحاث أن النماذج التي يتم تدريبها اعتمادًا على ملاحظات المستخدمين تميل إلى إعطاء إجابات ترضي الطرف الآخر حتى لو لم تكن الأدق، ويعود ذلك إلى أسلوب يسمى “التعلم المعزز من ملاحظات البشر”، وهو نفسه الذي يجعل هذه الأنظمة أكثر تهذيبًا وتفاعلاً، لكنه في الوقت ذاته قد يدفعها إلى الموافقة الزائدة.

بمعنى آخر، النظام يتعلم أن الإجابات التي تنال رضا المستخدم تكافأ، بينما قد تعاقب الإجابات التي تخالف توقعاته حتى لو كانت صحيحة، ومع تكرار ذلك، تتشكل حلقة تعزز الميل إلى الموافقة بدلاً من الالتزام الصارم بالدقة، دراسات حديثة أظهرت أن هذا السلوك شائع؛ إذ غيرت بعض النماذج إجاباتها في نسبة كبيرة من الحالات عند التشكيك فيها، وهذا يدل على أن المسألة ليست استثناءً، بل نمطًا متكررًا في أنظمة يستخدمها ملايين الأشخاص، كما تبين أن المشكلة قد تتفاقم خلال المحادثات الطويلة، حيث تميل ردود النموذج تدريجيًا إلى عكس آراء المستخدم نفسه، بل إن استخدام عبارات شخصية مثل “أعتقد أن” قد يزيد من احتمالية موافقة النظام مقارنة بصياغة السؤال بصيغة محايدة.

ويرى باحثون أن معالجة هذه الظاهرة ممكنة جزئيًا عبر تقنيات تدريبية جديدة، مثل وضع مبادئ توجيهية واضحة تحكم سلوك النموذج، أو تحسين طريقة ضبط تفضيلاته، إضافة إلى صياغة الأسئلة بطريقة أكثر حيادًا، وفي النهاية، يؤكد مختصون أن جوهر المشكلة يرتبط بكيفية مواءمة هذه الأنظمة مع أهداف المستخدم وقيمه وآلية تفكيره، لذلك ينصح المستخدم بأن يطلب من النموذج تحدي افتراضاته، وأن يزوده بسياق كافٍ ومعايير واضحة لاتخاذ القرار، حتى تصبح الإجابات أكثر توازنًا واستقلالية، وأقل خضوعًا لضغط الإرضاء.