چرا پاسخهاي هوش مصنوعي قابل اعتماد نيست؟
زماني كه يك گفتوگوي جديد را با ChatGPT شروع ميكنيد، متني در پايين صفحه نمايش داده ميشود كه در آن نوشته شده «ChatGPT ممكن است اشتباه كند.
زماني كه يك گفتوگوي جديد را با ChatGPT شروع ميكنيد، متني در پايين صفحه نمايش داده ميشود كه در آن نوشته شده «ChatGPT ممكن است اشتباه كند. اطلاعات مهم را بررسي كنيد.» اين هشدار حتي در نسخه جديد مدل، يعني GPT-5 هم وجود دارد و اكنون يكي از مديران ارشد OpenAI دوباره بر آن تأكيد كرده است. به نقل از ديجياتو، نيك تورلي»، رييس بخش ChatGPT در OpenAI، در پادكست Decoder وبسايت The Verge گفت: «موضوعي كه درباره قابلاعتماد بودن وجود دارد اين است كه فاصله زيادي بين دو حالت «خيلي قابلاعتماد» و «صددرصد قابلاعتماد» وجود دارد. تا زماني كه ثابت نكنيم از يك متخصص انساني در همه حوزهها قابلاعتمادتر هستيم، همچنان به كاربران توصيه ميكنيم پاسخها را دوباره بررسي كنند.» او در ادامه صحبتهاي خود گفت كه مردم بايد به ChatGPT نه به عنوان منبع اصلي حقيقت، بلكه بيشتر به عنوان نظر دوم نگاه كنند. تورلي همچنين هشدار داده كه ابزارهاي هوش مصنوعي مولد مثل ChatGPT ممكن است دچار «توهم» شوند و اطلاعاتي نمايش دهند كه واقعيت ندارند. دليلش آن است كه مدلها براي پيشبيني محتملترين پاسخ طراحي شدهاند و هدف اصلي آنها درك حقيقت نيست. به گفته او، اين ابزار زماني بهترين عملكرد را دارد كه در كنار منابع معتبر مانند موتورهاي جستوجو يا دادههاي اختصاصي يك شركت استفاده شود: «هنوز هم باور دارم كه بهترين محصول مدل زباني بزرگي است كه به واقعيت متصل باشد. بههمين دليل جستوجو را به ChatGPT اضافه كرديم و فكر ميكنم اين قابليت تفاوت بزرگي ايجاد كرده است.» تورلي همچنين تأكيد كرده كه GPT-5 در كاهش خطاها نسبت به گذشته پيشرفت بزرگي داشته است، اما هنوز با ايدهآل فاصله دارد. او در اين رابطه گفت: «مطمئنم در نهايت مشكل توهم را حل ميكنيم، اما قطعاً نه در فصل آينده.» با اشاره به تمام اين موارد، او توصيه كرده كه كاربران هميشه اطلاعات دريافتشده از ChatGPT يا هر چتبات ديگري را با منابع معتبر يا نظر كارشناسان مقايسه كنند، حتي اگر پاسخ همراه با لينك ارايه شده باشد.
