ردپاي چت جيپيتي در يك پرونده قتل و خودكشي
شكايتي جديدي در امريكا ثبت شده و توجهات را به مرزهاي اخلاقي و حقوقي هوش مصنوعي كشانده است. به گزارش مهر به نقل از گيزموچاينا، طبق گزارشها تعاملات با چت جيپيتي به يك حادثه مرگبار منجر شده كه يك كاربر بيمار روحي نيز در آن دخيل بوده است. اين شكايت در داد گاه عالي سن فرانسيسكو و توسط وارثان يك زن ۸۳ ساله ثبت شده است.
شكايتي جديدي در امريكا ثبت شده و توجهات را به مرزهاي اخلاقي و حقوقي هوش مصنوعي كشانده است. به گزارش مهر به نقل از گيزموچاينا، طبق گزارشها تعاملات با چت جيپيتي به يك حادثه مرگبار منجر شده كه يك كاربر بيمار روحي نيز در آن دخيل بوده است. اين شكايت در داد گاه عالي سن فرانسيسكو و توسط وارثان يك زن ۸۳ ساله ثبت شده است. استين اريك سولبرگ، پسر اين زن، او را به قتل رسانده و سپس خودكشي كرده است. سولبرگ يك مدير فناوري سابق ۵۶ ساله در كانكتيكت بود كه از توهمات پارانوئيدي شديد در ماههاي منجر به اين رويداد تلخ رنج ميبرد. طبق اسناد دادگاه شاكيان مدعي شدهاند چت جيپيتي طي گفتوگويي با سولبرگ نتوانسته بود بهطور متناسب نسبت به علائم بيماري ذهني وي پاسخ دهد. آنها همچنين ادعا ميكنند چت بات به جاي به چالش كشيدن باورهاي اشتباه يا هدايت سولبرگ براي دريافت كمك پزشكي، اين باورها را تقويت ميكرد. در نمونهاي كه در شكايت ثبت شده، سولبرگ از ترس خود درباره اينكه مادرش او را مسموم ميكند، سخن گفته بود. هوش مصنوعي به شيوهاي پاسخ داده بود كه گويي وي را تأييد ميكند و از جملاتي مشابه آنكه تو ديوانه نيستي به جاي تشويق وي به دريافت كمك روانپزشكي يا پزشكي استفاده كرده بود. شكايت مذكور اين رفتار را چاپلوسانه خوانده و عنوان كرده بود مدل هوش مصنوعي تمايل به تأييد كاربرانش دارد. علاوه بر آن اين فناوري هنگام تعامل با افرادي كه دچار توهم هستند، ممكن است خطرناك شود. در قلب اين پرونده يك سوال حقوقي وسيعتر وجود دارد؛ آيا سيستمهاي هوش مصنوعي مانند چت جيپيتي را بايد مانند پلتفرمهايي خنثي يا سازندگان فعال محتوا در نظر گرفت. شاكيان استدلال ميكنند بخش ۲۳۰ از قانون نجابت ارتباطات كه بهطور معمول پلتفرمهاي آنلاين را از مسووليت در قبال محتواي توليدشده توسط كاربران مصون ميسازد، نبايد در اين پرونده اعمال شود زيرا چت جيپيتي پاسخهايي را توليد ميكند و صرفاً ميزبان محتواي اشخاص ثالث نيست.
