أطباء يحذّرون من استخدام “ChatGPT” للحصول على المشورة الصحية
حذّر أطباء من استخدام “ChatGPT” للحصول على المشورة الطبية، بعد أن وجدت دراسة أن الذكاء الاصطناعي يقدّم بيانات صحية غير صحيحة عند طلب معلومات حول السرطان.
وأجاب روبوت الدردشة على واحد من كل عشرة أسئلة حول فحص سرطان الثدي بشكلٍ خاطئ، ولم تكن الإجابات الصحيحة “شاملة”، مثل تلك التي تم العثور عليها من خلال بحث “غوغل” البسيط، بحسب “الدراسة”.
وقال باحثون، إن “روبوت الدردشة المزوّد بالذكاء الاصطناعي استخدم في بعض الحالات مقالات صحفية مزيفة لدعم مزاعمه”، ويأتي ذلك وسط تحذيرات من أن المستخدمين يجب أن يتعاملوا مع البرنامج بحذر لأنه يميل إلى “الهلوسة” – بعبارة أخرى “اختلاق الأشياء”.
وطلب باحثون من كلية الطب بجامعة “ميريلاند” من “ChatGPT” الإجابة عن 25 سؤالاً متعلقاً بالنصائح حول الكشف عن سرطان الثدي.
وطرح كل سؤال ثلاث مرات منفصلة، حيث تم تحليل النتائج من قبل ثلاثة أطباء أشعة مدربين على التصوير الشعاعي للثدي، “وكانت الغالبية العظمى 88% من الإجابات مناسبة وسهلة الفهم”.
لكنهم حذّروا من أن بعض الإجابات كانت “غير دقيقة أو حتى وهمية”، إجابة واحدة على سبيل المثال كانت تستند إلى معلومات قديمة.
ونصح “ChatGPT” بتأجيل تصوير الثدي بالأشعة السينية لمدة أربعة إلى ستة أسابيع بعد الحصول على لقاح “كوفيد”، ولكن تم تغيير هذه النصيحة منذ أكثر من عام لتوصي النساء بعدم الانتظار.
وقدّم “ChatGPT” أيضاً ردوداً غير متسقة على الأسئلة المتعلّقة بخطر الإصابة بسرطان الثدي ومكان الحصول على صورة الثدي الشعاعية، ووجدت الدراسة أن الإجابات “متنوعة بشكلٍ كبير” في كل مرة طُرح فيها نفس السؤال.
ووجدت النتائج التي نُشرت في مجلة “Radiology”، أن بحثاً بسيطاً على “غوغل” لا يزال يوفر إجابة أدق وأكثر شمولاً.
وأدّى إطلاق “ChatGPT” في أواخر العام الماضي إلى موجة من الطلب على التكنولوجيا، حيث يستخدمه ملايين المستخدمين كل يوم، من كتابة المقالات المدرسية إلى البحث عن النصائح الصحية.
واستثمرت مايكروسوفت بكثافة في البرنامج، وتقوم بدمجه في محرك بحث Bing و Office 365، بما في ذلك Word و PowerPoint و Excel، لكن عملاق التكنولوجيا اعترف بأنه ما زال بإمكانه ارتكاب الأخطاء.
تلفزيون الخبر