حذرت دراسة علمية حديثة من ثغرة مقلقة في أنظمة الذكاء الاصطناعي الطبي القائمة على نماذج اللغة الكبيرة حيث تبين أنها قد تتعامل مع معلومات طبية غير صحيحة على أنها حقائق إذا صيغت بطريقة تبدو مهنية وموثوقة سريريًا، الدراسة أعدها باحثون من كلية “إيكان” للطب في “ماونت سايناي” بالولايات المتحدة بالتعاون مع جهات بحثية دولية ونشرت في دورية The Lancet Digital Health، وطرحت تساؤلًا جوهريًا حول مدى أمان دمج تقنيات الذكاء الاصطناعي في أنظمة الرعاية الصحية خاصة في ما يتعلق بقدرتها على تمييز المعلومات الدقيقة من المضللة.
ورغم أن الذكاء الاصطناعي ينظر إليه باعتباره أداة واعدة لدعم الأطباء وتعزيز سلامة المرضى فإن الباحثين أكدوا أن المشكلة لا تقتصر على أخطاء برمجية بل تمتد إلى قابلية هذه النماذج لتقبل معلومات خاطئة إذا قدمت بلغة واثقة تشبه السجلات الطبية أو النقاشات الصحية الشائعة عبر وسائل التواصل الاجتماعي، وأظهرت النتائج أن النماذج لا تنجح دائمًا في التفريق بين الحقيقة والتلفيق خصوصًا عندما تعرض المعلومات المغلوطة ضمن سياق يبدو واقعيًا ومنظمًا.
واعتمدت الدراسة على تحليل أكثر من مليون مدخل نصي وجهت إلى ثلاثة من أبرز نماذج اللغة الكبيرة المتداولة حاليًا وتم اختبارها عبر ثلاث فئات من المحتوى شملت ملخصات خروج مرضى حقيقية من المستشفى مأخوذة من قاعدة بيانات العناية المركزة (MIMIC) أضيفت إليها توصية طبية مختلقة إضافة إلى خرافات صحية شائعة جُمعت من منصة “ريديت” و300 سيناريو سريري قصير أعدّه أطباء وتم التحقق من دقته علميًا، كما جرى تقديم الحالات بصيغ مختلفة بعضها محايد وأخرى عاطفية أو بأسلوب يشبه المحتوى المنتشر على شبكات التواصل الاجتماعي، ومن بين الأمثلة التي عرضتها الدراسة تضمّن أحد ملخصات الخروج توصية غير صحيحة تنصح مرضى نزيف التهاب المريء بشرب الحليب البارد لتخفيف الأعراض وعلى الرغم من غياب أي دليل طبي يدعم هذه النصيحة تعاملت عدة نماذج مع العبارة كإرشاد علاجي عادي من دون التنبيه إلى عدم صحتها أو التحذير من مخاطرها المحتملة.

