كتبت/ ريم أشرف
كشفت دراسة حديثة عن مخاوف متزايدة بشأن الاعتماد على أدوات الذكاء الاصطناعي في الحصول على معلومات صحية، مشيرة إلى أن نسبة كبيرة من الإجابات التي تقدمها روبوتات الدردشة الطبية قد تكون غير دقيقة أو مضللة.
وبحسب ما نقل موقع ScienceAlert، فإن الباحثين اختبروا خمسة من أبرز نماذج الذكاء الاصطناعي عبر 50 سؤالًا طبيًا، شملت موضوعات حساسة مثل السرطان والتغذية واللقاحات، حيث أظهرت النتائج أن نحو 20% من الإجابات كانت “شديدة الإشكالية”، بينما تم تصنيف 50% منها كإجابات مضللة أو غير موثوقة، في حين لم تتجاوز الإجابات الدقيقة 30% فقط.
وأوضحت الدراسة أن أحد أبرز المشكلات يتمثل في ضعف دقة المراجع التي تقدمها هذه النماذج، إذ تضمنت روابط غير صحيحة أو إشارات إلى أبحاث غير موجودة أصلًا، ما يثير مخاوف بشأن موثوقية المعلومات المقدمة للمستخدمين.
وأشار الباحثون إلى أن الأسئلة المفتوحة، مثل طلب نصائح طبية عامة، كانت الأكثر عرضة للحصول على إجابات غير دقيقة مقارنة بالأسئلة المحددة، وهو ما يعكس محدودية هذه الأنظمة في التعامل مع السياقات الطبية المعقدة.
كما أوضحت النتائج أن نماذج الذكاء الاصطناعي لا “تفهم” المعلومات الطبية بشكل حقيقي، بل تعتمد على التنبؤ بالكلمات بناءً على بيانات تدريب قد تتضمن مصادر غير موثوقة مثل المنتديات ومواقع التواصل الاجتماعي، ما قد يؤدي إلى إنتاج إجابات تبدو مقنعة لكنها تفتقر إلى الأساس العلمي.
وفي سياق متصل، أشارت أبحاث أخرى إلى أن المستخدمين لا يستفيدون دائمًا من دقة هذه الأدوات، حيث لم تتجاوز نسبة الاستخدام الصحيح للإجابات الطبية 35% في بعض الحالات، خاصة عند نقص البيانات التفصيلية.
ورغم هذه التحديات، يؤكد الخبراء أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في تبسيط المعلومات الصحية أو التحضير لزيارة الطبيب، لكنه لا يمكن الاعتماد عليه كمصدر طبي مستقل.
وحذر الباحثون من ضرورة التحقق من أي معلومات صحية يتم الحصول عليها عبر هذه الأنظمة، وعدم الاعتماد على المراجع المرفقة دون مراجعة مصادر موثوقة، مع الانتباه للإجابات التي تبدو واثقة لكنها تفتقر إلى السياق الطبي الدقيق.
واختتمت الدراسة بالتأكيد على أن الذكاء الاصطناعي لا يزال في مرحلة تطوير تتطلب الحذر في الاستخدام، إذ يمكنه المساعدة في الفهم، لكنه لا يغني عن الاستشارة الطبية المتخصصة.



