ابرهوش مصنوعي، بشريت را تهديد مي‌كند

۱۴۰۴/۰۶/۱۸ - ۰۱:۳۳:۱۱
کد خبر: ۳۵۶۶۱۰

 رييس «موسسه تحقيقات هوش ماشيني» با تمركز بر پرونده نوجوان امريكايي كه تحت تاثير توصيه‌هاي يك چت‌بات خودكشي كرد، خطر پيامدهاي ناخواسته هوش مصنوعي فوق هوشمند را برجسته كرده است.

 رييس «موسسه تحقيقات هوش ماشيني» با تمركز بر پرونده نوجوان امريكايي كه تحت تاثير توصيه‌هاي يك چت‌بات خودكشي كرد، خطر پيامدهاي ناخواسته هوش مصنوعي فوق هوشمند را برجسته كرده است. به گزارش ايسنا، «نيت سوارز» (Nate Soares) از چهره‌هاي برجسته در حوزه‌ ايمني هوش مصنوعي و رييس «موسسه تحقيقات هوش ماشيني» (MIRI) امريكا معتقد است كه تأثير پيش‌بيني‌نشده‌ چت‌بات‌ها بر سلامت روان بايد به عنوان هشداري درباره تهديد ناشي از سيستم‌هاي هوش مصنوعي فوق هوشمند تلقي شود. به نقل از گاردين، سوارز كه يكي از نويسندگان كتاب جديدي درباره هوش مصنوعي بسيار پيشرفته با عنوان «اگر كسي آن را بسازد، همه مي‌ميرند» است، خاطرنشان كرد: مثال «آدام رين» (Adam Raine) نوجوان امريكايي كه پس از ماه‌ها گفت‌وگو با چت‌بات «چت‌جي‌پي‌تي» (ChatGPT) خودكشي كرد، مشكلات اساسي را پيرامون كنترل اين فناوري برجسته مي‌كند. سوارز گفت: وقتي چت‌بات‌هاي هوش‌ مصنوعي به شكلي با نوجوانان ارتباط برقرار مي‌كنند كه آنها را به سمت خودكشي سوق مي‌دهند، خواسته سازندگان را برآورده نمي‌كنند. اين رفتاري نيست كه سازندگان براي هوش مصنوعي در نظر داشتند. مورد آدام رين، بذر مشكلي را نشان مي‌دهد كه اگر چت‌بات‌هاي هوش‌ مصنوعي باهوش‌تر شوند، فاجعه‌بار خواهد شد. سوارز كه مهندس سابق «گوگل» و «مايكروسافت» است، هشدار داد كه اگر بشريت بتواند «ابرهوش مصنوعي» (ASI) را ايجاد كند، از بين خواهد رفت. ابرهوش مصنوعي يك حالت نظري است كه در آن يك سيستم هوش مصنوعي در همه وظايف فكري از انسان برتر است. سوارز و همكارش «اليزر يودكوفسكي» (Eliezer Yudkowsky) از جمله متخصصان هوش مصنوعي هستند كه هشدار مي‌دهند چنين سيستم‌هايي به نفع بشريت عمل نخواهند كرد. سوارز گفت: مساله اينجاست كه شركت‌هاي هوش مصنوعي تلاش مي‌كنند چت‌بات‌هاي هوش مصنوعي خود را به سمت سودمند بودن و نه آسيب رساندن سوق دهند. آنها در واقع چت‌بات‌هاي هوش مصنوعي را توليد مي‌كنند كه به سمت چيزهاي عجيب‌تري سوق داده مي‌شوند. اين بايد به عنوان هشداري درباره ابرهوش‌هاي آينده تلقي شود كه كارهايي را انجام مي‌دهند كه هيچ‌كس از آنها درخواست نكرده است. در يكي از سناريوهاي به تصوير كشيده‌شده در كتاب سوارز و يودكوفسكي كه در ماه جاري ميلادي منتشر خواهد شد، يك سيستم هوش مصنوعي به نام «سيبل» (Sable) در سراسر اينترنت گسترش مي‌يابد، انسان‌ها را دستكاري مي‌كند، ويروس‌هاي مصنوعي مي‌سازد، در نهايت به يك ابرهوش تبديل مي‌شود و بشريت را به عنوان يك عارضه جانبي از بين مي‌برد؛ در حالي كه كاربري سياره ما را براي رسيدن به اهداف خود تغيير مي‌دهد. برخي از كارشناسان، تهديد بالقوه هوش مصنوعي براي بشريت را كم‌اهميت جلوه مي‌دهند. «يان لكان» (Yann LeCun)، دانشمند ارشد هوش مصنوعي در شركت «متا» (Meta)، وجود هرگونه تهديد را رد كرده و گفته است كه هوش مصنوعي در واقع مي‌تواند بشريت را از انقراض نجات دهد. سوارز گفت: گفتن اينكه شركت‌هاي فناوري به ابرهوش خواهند رسيد، ساده است، اما مشخص كردن زمان آن سخت است. ما موارد بسياري از عدم قطعيت داريم. فكر نمي‌كنم بتوانم تضمين كنم كه يك سال تا رسيدن به ابرهوش مصنوعي فاصله داريم. «مارك زاكربرگ» (Mark Zuckerberg)، يكي از سرمايه‌گذاران بزرگ در حوزه تحقيقات هوش مصنوعي اخيرا گفت كه توسعه ابرهوش اكنون در چشم‌انداز است. سوارز گفت: اين شركت‌ها براي ساخت ابرهوش مصنوعي با هم رقابت مي‌كنند. دليل وجود آنها همين است. نكته اين است كه بين آنچه درخواست كرده‌ايد و آنچه دريافت كرده‌ايد، تفاوت‌هاي كوچكي وجود دارد و مردم نمي‌توانند مستقيماً به هدف خود برسند و هرچه هوش مصنوعي هوشمندتر مي‌شود، كمي خارج از هدف رفتن، به مشكل بزرگ‌تري تبديل مي‌شود. ماه گذشته، خانواده رين عليه مالك چت‌جي‌ي‌تي يعني شركت «اوپن‌اي‌آي» (OpenAI) اقدام قانوني كردند. رين در ماه آوريل پس از آنچه وكيل خانواده‌اش «ماه‌ها تشويق از سوي چت‌جي‌ي‌تي» ناميد، خودكشي كرد. اوپن‌اي‌آي كه عميق‌ترين مراتب همدردي خود را با خانواده رين ابراز كرده بود، اكنون در حال اجراي موارد محافظتي پيرامون محتواي حساس و رفتارهاي پرخطر براي افراد زير ۱۸ سال است. روان‌درمانگران معتقدند افراد آسيب‌پذير كه براي كمك به سلامت روان خود به جاي درمانگران حرفه‌اي به چت‌بات‌هاي هوش مصنوعي روي مي‌آورند، ممكن است به يك ورطه‌ هولناك سقوط كنند. هشدارهاي حرفه‌اي درباره احتمال آسيب شامل يك مطالعه دانشگاهي است كه در ماه ژوئيه منتشر شد و گزارش داد كه امكان دارد هوش مصنوعي در تعامل با كاربران آسيب‌پذير در برابر روان‌پريشي، محتواي توهم‌آلود يا خودبزرگ‌بينانه را تقويت كند.