هوش مصنوعي مشاور پزشكي خوبي نيست!
يك تحقيق نشان ميدهد چتباتها در تشخيص بيماريها به افراد كمكي نميكنند و حتي ممكن است تفسير پاسخهاي اين ابزارها براي كاربران مشكل باشد.
يك تحقيق نشان ميدهد چتباتها در تشخيص بيماريها به افراد كمكي نميكنند و حتي ممكن است تفسير پاسخهاي اين ابزارها براي كاربران مشكل باشد. به گزارش مهر به نقل از تك كرانچ، بسياري از افراد با توجه به فهرستهاي انتظار طولاني پزشكان و هزينههاي خدمات درماني سرسام آور سيستمهاي درماني از چت باتهايي مانند چت جي پي تي براي تشخيصهاي پزشكي بيماريهاي خود استفاده ميكنند. اما طبق تحقيقي كه به رهبري پژوهشگران دانشگاه آكسفورد انجام شده، اعتماد بيش از حد به خروجي چتباتها خطرناك است به خصوص آنكه افراد نميدانند براي دريافت بهترين توصيههاي سلامتي ممكن چه اطلاعاتي به چت بات بدهند. آدم مهدي مدير تحصيلات تكميلي در موسسه اينترنت آكسفورد و يكي از مولفان پژوهش در اين باره ميگويد: تحقيق ما نشاندهنده يك شكست در ارتباط دو طرفه است. افرادي كه از چتباتها استفاده كردند تصميمات بهتري نسبت به افرادي كه روشهاي سنتي مانند جستوجوي آنلاين يا قضاوت را به كار بردند، نگرفتند. مولفان اين پژوهش حدود ۱۳۰۰ نفر در انگليس را جذب كردند و به آنها سناريوهاي پزشكي كه توسط گروهي از پزشكان نوشته شده بود را دادند. شركتكنندگان وظيفه داشتند بيماريهاي موجود در اين سناريوها را با استفاده از چتباتها و همچنين روشهاي خود شناسايي كنند تا اقدامات درماني امكانپذير را دريافتند. شركتكنندگان از مدل هوش مصنوعي چت جي پي تي ۴o همچنين Command R+ متعلق به كوهر و Llama۳ متا استفاده كردند. به گفته مولفان چتباتها نه تنها احتمال شناسايي يك وضعيت سلامتي مرتبط توسط شركتكنندگان را كاهش دادند بلكه احتمال دست پايين گرفتن شدت بيماريهاي شناسايي شده را بيشتر كردند. به گفته مهدي بيشتر اوقات شركتكنندگان هنگام جستوجو با چتباتها جزييات كليدي را حذف كردند يا پاسخهايي دريافت كردند كه تفسير آنها مشكل بود. نتايج اين تحقيق در حالي منتشر شده كه شركتها سعي دارند هوش مصنوعي رابه عنوان روشي براي بهبود نتايج سلامتي ترويج كنند.