«كلود» مكالمات نگرانكننده را قطع ميكند
هوش مصنوعي كلود (Claude) محصول شركت آنتروپيك (Anthropic) اكنون توانايي پايان دادن به مكالمات نگرانكننده و اضطرابآور را دارد.
هوش مصنوعي كلود (Claude) محصول شركت آنتروپيك (Anthropic) اكنون توانايي پايان دادن به مكالمات نگرانكننده و اضطرابآور را دارد. به گزارش ايسنا، جديدترين ويژگي شركت «آنتروپيك» براي مدل هوش مصنوعي «كلود» ميتواند آغازي بر پايان دستكاري هوش مصنوعي باشد، چرا كه اين شركت در پستي در وبسايت خود اعلام كرد كه مدلهاي «4 Claude Opus» و «4.1 Claude Opus » اكنون قدرت پايان دادن به مكالمه با كاربران را دارند. به گفته آنتروپيك، اين ويژگي فقط در موارد نادر و شديد تعاملات كاربر كه بهطور مداوم مضر يا توهينآميز هستند، استفاده خواهد شد. به نقل از انگجت، براي روشن شدن موضوع، آنتروپيك گفت كه اين دو مدل «كلود» ميتوانند از مكالمات مضر، مانند درخواستهاي كاربران براي محتواي جنسي شامل افراد زير سن قانوني و تلاش براي درخواست اطلاعاتي كه امكان خشونت يا اقدامات تروريستي در مقياس بزرگ را فراهم ميكند، خارج شوند. طبق گفته آنتروپيك، اين مدلها تنها زماني به يك مكالمه پايان ميدهند كه به عنوان آخرين راهحل، تلاشهاي متعدد براي تغيير مسير ناموفق بوده و اميد به يك تعامل سازنده از بين رفته باشد. با اين حال، آنتروپيك ادعا ميكند كه اكثر كاربران حتي هنگام صحبت در مورد موضوعات بسيار بحثبرانگيز، شاهد قطع مكالمه توسط «كلود» نخواهند بود، زيرا اين ويژگي براي «موارد بسيار حساس» در نظر گرفته شده است. گفتني است كه در سناريوهايي كه «كلود» يك چت را پايان ميدهد، كاربران ديگر نميتوانند هيچ پيام جديدي در آن مكالمه ارسال كنند، اما ميتوانند بلافاصله يك پيام جديد شروع كنند. آنتروپيك افزود كه اگر يك مكالمه پايان يابد، بر ساير چتها تأثيري نخواهد گذاشت و كاربران حتي ميتوانند به عقب برگردند و پيامهاي قبلي را ويرايش يا دوباره امتحان كنند تا به مسير مكالمه ديگري هدايت شوند. اين اقدام براي آنتروپيك، بخشي از يك برنامه تحقيقاتي است كه ايده رفاه هوش مصنوعي را مطالعه ميكند. در حالي كه ايده انسانانگاري مدلهاي هوش مصنوعي همچنان يك بحث مداوم است، اين شركت اعلام كرد كه توانايي خروج از يك تعامل بالقوه ناراحتكننده، راهي كمهزينه براي مديريت خطرات براي رفاه هوش مصنوعي است.
