چرا پاسخ‌هاي هوش مصنوعي قابل اعتماد نيست؟

۱۴۰۴/۰۵/۲۷ - ۰۱:۳۸:۰۸
کد خبر: ۳۵۳۸۱۸

زماني كه يك گفت‌وگوي جديد را با ChatGPT شروع مي‌كنيد، متني در پايين صفحه نمايش داده مي‌شود كه در آن نوشته شده «ChatGPT ممكن است اشتباه كند.

زماني كه يك گفت‌وگوي جديد را با ChatGPT شروع مي‌كنيد، متني در پايين صفحه نمايش داده مي‌شود كه در آن نوشته شده «ChatGPT ممكن است اشتباه كند. اطلاعات مهم را بررسي كنيد.» اين هشدار حتي در نسخه جديد مدل، يعني GPT-5 هم وجود دارد و اكنون يكي از مديران ارشد OpenAI دوباره بر آن تأكيد كرده است. به نقل از ديجياتو، نيك تورلي»، رييس بخش ChatGPT در OpenAI، در پادكست Decoder وب‌سايت The Verge گفت: «موضوعي كه درباره قابل‌اعتماد بودن وجود دارد اين است كه فاصله زيادي بين دو حالت «خيلي قابل‌اعتماد» و «صددرصد قابل‌اعتماد» وجود دارد. تا زماني كه ثابت نكنيم از يك متخصص انساني در همه حوزه‌ها قابل‌اعتمادتر هستيم، همچنان به كاربران توصيه مي‌كنيم پاسخ‌ها را دوباره بررسي كنند.» او در ادامه صحبت‌هاي خود گفت كه مردم بايد به ChatGPT نه به عنوان منبع اصلي حقيقت، بلكه بيشتر به عنوان نظر دوم نگاه كنند. تورلي همچنين هشدار داده كه ابزارهاي هوش مصنوعي مولد مثل ChatGPT ممكن است دچار «توهم» شوند و اطلاعاتي نمايش دهند كه واقعيت ندارند. دليلش آن است كه مدل‌ها براي پيش‌بيني محتمل‌ترين پاسخ طراحي شده‌اند و هدف اصلي آنها درك حقيقت نيست. به گفته او، اين ابزار زماني بهترين عملكرد را دارد كه در كنار منابع معتبر مانند موتورهاي جست‌وجو يا داده‌هاي اختصاصي يك شركت استفاده شود: «هنوز هم باور دارم كه بهترين محصول مدل زباني بزرگي است كه به واقعيت متصل باشد. به‌همين دليل جست‌وجو را به ChatGPT اضافه كرديم و فكر مي‌كنم اين قابليت تفاوت بزرگي ايجاد كرده است.» تورلي همچنين تأكيد كرده كه GPT-5 در كاهش خطاها نسبت به گذشته پيشرفت بزرگي داشته است، اما هنوز با ايده‌آل فاصله دارد. او در اين رابطه گفت: «مطمئنم در نهايت مشكل توهم را حل مي‌كنيم، اما قطعاً نه در فصل آينده.» با اشاره به تمام اين موارد، او توصيه كرده كه كاربران هميشه اطلاعات دريافت‌شده از ChatGPT يا هر چت‌بات ديگري را با منابع معتبر يا نظر كارشناسان مقايسه كنند، حتي اگر پاسخ همراه با لينك ارايه شده باشد.