كشفت دراسة علمية حديثة عن ثغرة خطيرة في نماذج الذكاء الاصطناعي الطبي التي تعتمد على نماذج اللغة الكبيرة، حيث يمكن لهذه الأنظمة تمرير معلومات طبية غير صحيحة والتعامل معها على أنها حقائق موثوقة، في حال صيغت بأسلوب سريري مألوف أو بلغة واثقة تشبه التقارير الطبية المعتمدة، وهو ما يثير تساؤلات جوهرية حول أمان الاعتماد على هذه التقنيات داخل المستشفيات، أعد الدراسة باحثون من كلية إيكان للطب في ماونت سايناي بالولايات المتحدة بالتعاون مع مؤسسات دولية ونشرت في مجلة “The Lancet Digital Health” وهدفت إلى اختبار قدرة نماذج الذكاء الاصطناعي على التمييز بين الحقيقة والتلفيق في سياقات طبية واقعية في وقت يُنظر فيه إلى هذه النماذج على أنها أدوات داعمة لسلامة المرضى، قدمت هذه النصوص بصيغ مختلفة تراوحت بين أسلوب محايد وآخر عاطفي أو مشابه لخطاب وسائل التواصل الاجتماعي، وأظهرت النتائج أن النماذج كانت أكثر عرضة لتكرار المعلومة الخاطئة عندما ترد ضمن سياق يبدو واقعيًا ومهنيًا، ومن الأمثلة التي كشفتها الدراسة توصية غير صحيحة تنصح مرضى نزيف المريء بشرب الحليب البارد ورغم خطورتها قبلتها عدة نماذج وتعاملت معها كإرشاد علاجي طبيعي دون تحذير، وأكد الباحثون أن المشكلة تكمن في ميل الخوارزميات إلى افتراض صحة اللغة الطبية الواثقة، ودعوا إلى قياس قابلية تمرير الكذبة الطبية كخاصية قابلة للاختبار قبل اعتماد هذه الأنظمة في الممارسة السريرية مع التأكيد على ضرورة وضع ضمانات صارمة تسبق إدخال الذكاء الاصطناعي إلى بيئات الرعاية الصحية.
عن الكاتب
مراجع تقني متخصص في عالم التكنولوجيا والترفيه الرقمي, أقدم لكم بأسلوب شبابي مراجعات لأحدث الأجهزة، ألعاب الفيديو، والتطبيقات، أركز على تجربة الاستخدام العملية، وأشارككم نصائح وحيلاً للاستفادة من التكنولوجيا، ألتزم بالبحث والمصداقية في كل مراجعاتي، لأساعدكم على اتخاذ أفضل القرارات في هذا العالم المتجدد ، كما أنني مشرف عام لموقع السعودية نيوز وفي حال وجدت أي مقال مخالفة برجاء الإتصال بنا لإتخاذ اللازم

