هوش مصنوعي مشاور پزشكي خوبي نيست!

۱۴۰۴/۰۲/۱۷ - ۰۱:۱۸:۰۸
|
کد خبر: ۳۴۲۲۲۴

يك تحقيق نشان مي‌دهد ‌چت‌بات‌ها در تشخيص بيماري‌ها به افراد كمكي نمي‌كنند و حتي ممكن است تفسير پاسخ‌هاي اين ابزارها براي كاربران مشكل باشد.

يك تحقيق نشان مي‌دهد ‌چت‌بات‌ها در تشخيص بيماري‌ها به افراد كمكي نمي‌كنند و حتي ممكن است تفسير پاسخ‌هاي اين ابزارها براي كاربران مشكل باشد. به گزارش مهر به نقل از تك كرانچ، بسياري از افراد با توجه به فهرست‌هاي انتظار طولاني پزشكان و هزينه‌هاي خدمات درماني سرسام آور سيستم‌هاي درماني از چت بات‌هايي مانند چت جي پي تي براي تشخيص‌هاي پزشكي بيماري‌هاي خود استفاده مي‌كنند. اما طبق تحقيقي كه به رهبري پژوهشگران دانشگاه آكسفورد انجام شده، اعتماد بيش از حد به خروجي ‌چت‌بات‌ها خطرناك است به خصوص آنكه افراد نمي‌دانند براي دريافت بهترين توصيه‌هاي سلامتي ممكن چه اطلاعاتي به چت بات بدهند. آدم مهدي مدير تحصيلات تكميلي در موسسه اينترنت آكسفورد و يكي از مولفان پژوهش در اين باره مي‌گويد: تحقيق ما نشان‌دهنده يك شكست در ارتباط دو طرفه است. افرادي كه از ‌چت‌بات‌ها استفاده كردند تصميمات بهتري نسبت به افرادي كه روش‌هاي سنتي مانند جست‌وجوي آنلاين يا قضاوت را به كار بردند، نگرفتند. مولفان اين پژوهش حدود ۱۳۰۰ نفر در انگليس را جذب كردند و به آنها سناريوهاي پزشكي كه توسط گروهي از پزشكان نوشته شده بود را دادند. شركت‌كنندگان وظيفه داشتند بيماري‌هاي موجود در اين سناريوها را با استفاده از ‌چت‌بات‌ها و همچنين روش‌هاي خود شناسايي كنند تا اقدامات درماني امكانپذير را دريافتند. شركت‌كنندگان از مدل هوش مصنوعي چت جي پي تي ۴o همچنين Command R+ متعلق به كوهر و Llama۳ متا استفاده كردند. به گفته مولفان ‌چت‌بات‌ها نه تنها احتمال شناسايي يك وضعيت سلامتي مرتبط توسط شركت‌كنندگان را كاهش دادند بلكه احتمال دست پايين گرفتن شدت بيماري‌هاي شناسايي شده را بيشتر كردند. به گفته مهدي بيشتر اوقات شركت‌كنندگان هنگام جست‌وجو با ‌چت‌بات‌ها جزييات كليدي را حذف كردند يا پاسخ‌هايي دريافت كردند كه تفسير آنها مشكل بود. نتايج اين تحقيق در حالي منتشر شده كه شركت‌ها سعي دارند هوش مصنوعي رابه عنوان روشي براي بهبود نتايج سلامتي ترويج كنند.