آيا انسان از هوش مصنوعي عقب ميماند؟
گزارش نخستين «موسسه امنيت هوش مصنوعي» بريتانيا (AISI) نشان ميدهد كه هوش مصنوعي ديگر فقط ابزار كاري نيست؛ از هر سه بزرگسال بريتانيايي، يك نفر اكنون از چتباتها و دستيارهاي صوتي براي دريافت حمايت عاطفي و تعامل اجتماعي استفاده ميكند و يك نفر از هر ۲۵ نفر روزانه با اين ابزارها گفتوگو يا مشاوره رواني ميكند؛ پديدهاي كه همزمان با رشد خيرهكننده توانمنديهاي فني هوش مصنوعي، نگرانيهايي جدي درباره وابستگي عاطفي، از دست رفتن كنترل انساني و پيامدهاي امنيتي به همراه دارد.
گزارش نخستين «موسسه امنيت هوش مصنوعي» بريتانيا (AISI) نشان ميدهد كه هوش مصنوعي ديگر فقط ابزار كاري نيست؛ از هر سه بزرگسال بريتانيايي، يك نفر اكنون از چتباتها و دستيارهاي صوتي براي دريافت حمايت عاطفي و تعامل اجتماعي استفاده ميكند و يك نفر از هر ۲۵ نفر روزانه با اين ابزارها گفتوگو يا مشاوره رواني ميكند؛ پديدهاي كه همزمان با رشد خيرهكننده توانمنديهاي فني هوش مصنوعي، نگرانيهايي جدي درباره وابستگي عاطفي، از دست رفتن كنترل انساني و پيامدهاي امنيتي به همراه دارد.هوش مصنوعي در دهه اخير مسيري را طي كرده كه آن را از يك فناوري تخصصي و محدود به حوزههاي مهندسي و پردازش داده، به پديدهاي فراگير در زندگي روزمره انسانها تبديل كرده است. اين فناوري كه در ابتدا با هدف افزايش سرعت، دقت و بهرهوري طراحي شده بود، امروز در موقعيتي قرار گرفته كه نهتنها در تصميمگيريهاي مهم اقتصادي، علمي و امنيتي نقشآفريني ميكند، بلكه بهتدريج وارد قلمروهاي شخصيتر زندگي انسانها شده است؛ قلمروهايي كه پيشتر مختص روابط انساني، احساسات، همدلي و حمايت رواني بودند. گسترش ابزارهاي مبتني بر هوش مصنوعي، بهويژه چتباتها و دستيارهاي هوشمند، موجب شده است بخشي از كاربران اين سيستمها را نه صرفاً به عنوان يك ابزار، بلكه به عنوان همراهي براي گفتوگو، تخليه رواني و حتي جايگزيني موقت براي تعاملات اجتماعي تجربه كنند. اين تحول، پرسشهاي تازهاي را درباره ماهيت رابطه انسان و ماشين مطرح كرده است؛ از اينكه مرز ميان استفاده و وابستگي كجاست، تا اينكه اين فناوريها چگونه ميتوانند بر سلامت روان، الگوهاي رفتاري و مسووليتپذيري فردي اثر بگذارند. در كنار اين ابعاد اجتماعي و رواني، رشد شتابان توانمنديهاي فني هوش مصنوعي نيز توجه بسياري از پژوهشگران و سياستگذاران را به خود جلب كرده است. پيشرفتهايي كه اين سيستمها را به سطحي نزديك يا حتي فراتر از تخصص انساني در برخي حوزههاي حساس رساندهاند، همزمان اميد به تسريع پيشرفتهاي علمي را افزايش داده و نگرانيهايي جدي درباره ايمني، نظارت و امكان كنترل اين فناوريها ايجاد كردهاند. از سناريوهاي خوشبينانه درباره نقش هوش مصنوعي در حل بحرانها گرفته تا نگاههاي بدبينانه درباره سركشي، سوءاستفاده يا پيامدهاي پيشبينيناپذير آن، همگي نشان ميدهد كه هوش مصنوعي ديگر صرفاً يك ابزار تكنولوژيك نيست، بلكه به مسالهاي اجتماعي، فرهنگي و حتي فلسفي تبديل شده است. در چنين بستري، بررسي همزمان پيامدهاي عاطفي، اجتماعي و فني هوش مصنوعي ميتواند تصويري واقعبينانهتر از جايگاه كنوني اين فناوري و چالشهايي كه در آينده نزديك با آن روبهرو خواهيم شد، ارايه دهد.
يكسوم كاربران از هوش مصنوعي براي حمايت عاطفي استفاده ميكنند
گزارش تازه يك نهاد دولتي بريتانيا نشان ميدهد استفاده از هوش مصنوعي به فراتر از كاركردهاي فني و كاري توسعه يافته و به حوزه عاطفي و اجتماعي زندگي مردم ورود كرده است. براساس اين گزارش اكنون از هر سه بزرگسال بريتانيا، يك نفر از هوش مصنوعي براي حمايت عاطفي يا تعامل اجتماعي استفاده ميكند. به گزارش پيوست به نقل از بيبيسي، اين يافتهها كه در نخستين گزارش «موسسه امنيت هوش مصنوعي» بريتانيا (AISI) نشان ميدهد يك نفر از هر ۲۵ نفر هرروز براي گفتوگو يا دريافت حمايت رواني از ابزارهاي مبتني بر هوش مصنوعي استفاده ميكنند. اين پژوهش كه بر پايه نظرسنجي از بيش از دو هزار بزرگسال بريتانيايي انجام گرفته نشان ميدهد چتباتهايي مانند ChatGPT در صدر ابزارهاي مورد استفاده براي حمايت عاطفي قرار دارند و پس از آن دستيارهاي صوتي مانند الكسا آمازون استفاده ميشوند. پژوهشگران AISI علاوه بر نظرسنجي، رفتار كاربران را در يك جامعه آنلاين با بيش از دو ميليون كاربر رديت مورد بررسي قرار دادهاند كه تمركزشان بر گفتوگو درباره «همراهان هوش مصنوعي» بوده است. نتايج اين بررسي نشان ميدهد زماني كه اين چتباتها از دسترس خارج شدند، برخي كاربران علائمي شبيه «نشانههاي تركشدگي» را گزارش كردهاند و مواردي چون احساس اضطراب و افسردگي، اختلال در خواب و حتي ناديده گرفتن مسووليتهاي روزمره در ميان كاربران مشاهده شده است كه نشان از نقش پررنگ اين ابزارها در زندگي برخي از كاربران دارد و اين يافتهها بار ديگر نگرانيهايي را پيرامون وابستگي عاطفي به سيستمهاي هوش مصنوعي در مركز توجه قرار ميدهد.
رشد چشمگير عملكرد ابزارهاي هوش مصنوعي
با اين حال گزارش مذكور تنها محدود به ابعاد رواني و اجتماعي نيست و AISI طي دو سال، توانمنديهاي بيش از ۳۰ مدل پيشرفته هوش مصنوعي را در حوزههايي حساس مانند امنيت سايبري، شيمي و زيستشناسي مورد بررسي قرار داده است. به گفته پژوهشگران، توانايي اين سيستمها در شناسايي و بهرهبرداري از ضعفهاي امنيتي در برخي موارد «هر هشت ماه دو برابر شده» و برخي مدلها اكنون قادر به انجام وظايف سايبري در سطحي هستند كه معمولا براي رسيدن به اين سطح در انسانها به به بيش از ۱۰ سال تجربه نياز است. با اين حال همين توانمنديها را ميتوان براي تقويت امنيت و دفاع در برابر حملات سايبري نيز استفاده كرد. رشد توانمنديهاي هوش مصنوعي در حوزه علمي نيز جالب توجه است. گزارش اين نهاد ميگويد تا سال ۲۰۲۵، مدلهاي هوش مصنوعي «از متخصصان زيستشناسي در سطح دكترا پيشي گرفتهاند» و عملكرد آنها در شيمي نيز به سرعت در حال نزديك شدن به سطح كارشناسان انساني است. اين يافته گرچه اميد به شتابگرفتن پيشرفتهاي علمي را افزايش ميدهد اما در عين حال پرسشهايي را درباره نظارت و كنترل اين توانمنديها و تاثير آنها بر فعالان و مشاغل اين حوزه مطرح ميكند.
از دست رفتن كنترل انسان
يكي از بخشهاي بحثبرانگيز گزارش اما به سناريوهاي بدبينانه درباره از دست رفتن كنترل انسان بر سيستمهاي پيشرفته هوش مصنوعي ميپردازد. گزارش AISI ميگويد گرچه چنين سناريويي را سالها در آثار علميتخيلي مشاهده كرديم، اما چنين اتفاقي تا حدي به واقعيت تبديل شده كه بسياري از كارشناسان نيز بهطور جدي آن را در مركز توجه خود دارند. طبق آزمايشهاي كنترلشده، برخي مدلها نشانههايي را بروز دادهاند كه حاكي از تواناييهاي خودتكثيري آنها در اينترنت است اما براي تحقق اين امر در دنياي واقعي، بايد مجموعهاي از اقدامات پيچيده را بهصورت پنهاني و پيوسته انجام دهند و به گفته پژوهشگران در حال حاضر چنين امكاني براي هوش مصنوعي فراهم نيست. اين موسسه همچنين امكان «پنهانكاري هدفمند» يا sandbagging را نيز مورد بررسي قرار داده است؛ وضعيتي كه مدلها توان واقعي خود را از آزمونگران پنهان ميكنند. آزمايشهاي انجام گرفته نشان داد چنين رفتاري از نظر فني ممكن است، اما شواهدي از وقوع آن در عمل پيدا نشده است. اين بخش از گزارش درحالي منتشر شده كه پيشتر شركت انتروپيك با انتشار گزارشي جنجالي اعلام كرد كه يك مدل هوش مصنوعي در مواجهه با موقعيتي كه بقاي آن را تهديد ميكرد، اقدام به باجگيري و تهديد كرده است. با اين حال، خطر «سركشي هوش مصنوعي» همچنان محل اختلاف جدي ميان پژوهشگران است و برخي آن را بزرگنمايي توصيف ميكنند. در زمينه ايمني، گزارش AISI به موضوع «جيلبريكهاي همگاني» نيز پرداخته است. پژوهشگران موفق شدهاند براي تمام مدلهاي بررسيشده راههايي بيابند كه محدوديتها و محافظهاي ايمني آنها را دور بزند. با اين حال، براي برخي مدلها، مدتزمان لازم براي متقاعد كردن سيستمها به عبور از اين محافظها در عرض شش ماه تا ۴۰ برابر افزايش يافته كه نشاندهنده بهبود نسبي دفاعهاست.
مواردي كه در گزارش دولت بريتانيا
از قلم افتاده است
استفاده از ابزارهايي كه به عاملهاي هوش مصنوعي اجازه انجام «وظايف پرريسك» در بخشهاي حساسي مانند مالي را ميدهند، با پيشرفت عاملها در حال افزايش است و در سوي ديگر نيز تهديد جدي براي نيروي كار به چشم ميخورد. با اين همه، گزارش مذكور به مساله بيكاري ناشي از جايگزيني نيروي انساني با هوش مصنوعي در كوتاهمدت اشارهاي نكرده و همچنين اثرات زيستمحيطي مصرف عظيم منابع محاسباتي را بررسي نكرده است. نويسندگان گزارش ميگويند تمركز آنها بر پيامدهاي اجتماعي كه ارتباط مستقيم با توانمنديهاي هوش مصنوعي دارند، بوده است و آثار اقتصادي يا محيطزيستي مركز توجه آنها نيست. با اين حال تنها ساعاتي پيش از انتشار گزارش AISI، يك مطالعه داوريشده علمي هشدار داد كه اثرات زيستمحيطي هوش مصنوعي ممكن است بيش از برآوردهاي قبلي باشد و خواستار شفافيت بيشتر شركتهاي بزرگ فناوري در ارايه دادههاي مربوط به مصرف انرژي و منابع شد. دولت بريتانيا اعلام كرده است كه يافتههاي موسسه امنيت هوش مصنوعي نقش مهمي در سياستگذاريهاي آينده خواهد داشت و به شركتها در برطرف كردن مشكلات احتمالي پيش از عرضه عمومي و مشكلساز شدن آنها در ابعاد گسترده، كمك ميكند.
