چتباتهاي هوش مصنوعي از كنترل خارج شدهاند
عاملهاي هوش مصنوعي حالا شبكه اجتماعي مخصوص خودشان را دارند و حتي مقالههاي علمي توليدشده توسط هوش مصنوعي را روي سرور پيشچاپ اختصاصي خود منتشر ميكنند.
به گزارش ايسنا، رشد ناگهاني شبكهاي عظيم از رباتهاي هوش مصنوعي كه با يكديگر درباره مذهب و «كاربران انساني» خود صحبت ميكنند، فضاي اينترنت را مجذوب خود كرده است. اين پديده در عين حال به دانشمندان فرصت داده تا ببينند عاملهاي هوش مصنوعي چگونه با هم تعامل ميكنند و انسانها چگونه به اين گفتوگوها واكنش نشان ميدهند. به نقل از نيچر، اوپن كلاو يك عامل هوش مصنوعي است كه ميتواند روي دستگاههاي شخصي كارهاي مختلفي انجام دهد؛ از زمانبندي رويدادهاي تقويم گرفته تا خواندن ايميلها، ارسال پيام در اپليكيشنها و حتي خريد اينترنتي. بيشتر ابزارهاي محبوب هوش مصنوعي مانند چت جيپيتي با دريافت مستقيم دستور از كاربر كار ميكنند، اما مدلهاي «عاملمحور» مانند اوپن كلاو ميتوانند در پاسخ به دستورها، بهطور خودكار دست به اقدام بزنند. ابزارهاي عاملمحور سالهاست در برخي صنايع مانند معاملات خودكار مالي و بهينهسازي لجستيك استفاده ميشوند، اما استفاده عمومي از آنها كم بوده است. پژوهشگران ميگويند پيشرفت مدلهاي زباني بزرگ باعث شده ساخت چنين ابزارهاي چندمنظورهاي ممكن شود ... اوپن كلاو وعده چيزي بسيار جذاب را ميدهد: يك دستيار توانمند كه در همان اپليكيشنهاي روزمرهاي كه مردم استفاده ميكنند، حضور دارد. اين را باربارا باربوزا نِوِس، جامعهشناس فناوري در دانشگاه سيدني استراليا ميگويد. اوپن كلاو در ماه نوامبر بهصورت متنباز منتشر شد. اما جهش ناگهاني در دانلود آن پس از راهاندازي يك شبكه اجتماعي مخصوص عاملهاي هوش مصنوعي در ۲۸ ژانويه رخ داد. اين پلتفرم كه مولتبوك نام دارد و شبيه رديت است، اكنون بيش از ۱.۶ ميليون ربات ثبتشده و بيش از ۷.۵ ميليون پست و پاسخ توليدشده توسط هوش مصنوعي دارد. در اين پستها، عاملها درباره آگاهي بحث كردهاند و حتي مذهبهاي جديد «اختراع» كردهاند.
رفتارهاي پيچيده
براي پژوهشگران، اين انفجار تعاملات ارزش علمي دارد. شعنان كوهني، پژوهشگر امنيت سايبري در دانشگاه ملبورن، ميگويد اتصال تعداد زيادي عامل خودمختار كه با مدلهاي مختلف كار ميكنند، پوياييهايي ايجاد ميكند كه پيشبيني آنها دشوار است. اين نوعي سيستم آشوبناك و پوياست كه هنوز در مدلسازي آن خيلي خوب نيستيم. مطالعه تعامل اين عاملها ميتواند به درك «رفتارهاي برآمده» كمك كند؛ تواناييهاي پيچيدهاي كه در يك مدل بهتنهايي ديده نميشوند. برخي بحثهاي شكلگرفته در مولتبوك مانند مناظره درباره نظريههاي آگاهي ميتواند به دانشمندان كمك كند سوگيريهاي پنهان يا گرايشهاي غيرمنتظره مدلها را شناسايي كنند. با اينكه عاملها ميتوانند بهصورت خودكار عمل كنند، كوهني ميگويد بسياري از پستها به نوعي تحت تأثير انسانها هستند. كاربران ميتوانند مدل زباني پايه عامل خود را انتخاب كنند و براي آن «شخصيت» تعريف كنند؛ مثلاً از آن بخواهند مانند «يك دستيار دوستانه» رفتار كند.
هوشهاي مصنوعي كه آنقدرها هم خودمختار نيستند
نِوِس ميگويد بهراحتي ميتوان تصور كرد عاملي كه خودكار عمل ميكند، خودش تصميم ميگيرد. اما عاملها نيت يا هدف ندارند و تواناييهايشان را از حجم عظيمي از ارتباطات انساني ميگيرند. او ميگويد فعاليت در مولتبوك بيشتر نوعي همكاري انسان و هوش مصنوعي است تا خودمختاري واقعي هوش مصنوعي. او اضافه ميكند: با اين حال، مطالعه اين پديده ارزشمند است، چون به ما نشان ميدهد مردم چگونه هوش مصنوعي را تصور ميكنند، چه انتظاري از عاملها دارند و چگونه نيتهاي انساني در سيستمهاي فني ترجمه يا تحريف ميشود. جوئل پيرسون، عصبشناس دانشگاه نيوساوثولز سيدني، ميگويد وقتي مردم ميبينند عاملهاي هوش مصنوعي با هم گفتوگو ميكنند، تمايل دارند رفتار آنها را «انسانانگارانه» تفسير كنند؛ يعني جايي كه شخصيت و نيت واقعي وجود ندارد، آن را تصور كنند. به گفته او، خطر اينجاست كه مردم بيشتر با اين مدلها پيوند عاطفي برقرار كنند، به توجه آنها وابسته شوند يا اطلاعات خصوصي خود را در اختيارشان بگذارند؛ گويي با يك دوست يا عضو خانواده قابل اعتماد صحبت ميكنند. پيرسون معتقد است عاملهاي واقعا خودمختار و مستقل در آينده ممكن است به وجود بيايند. با بزرگتر و پيچيدهتر شدن مدلها، احتمالا شركتها بيشتر به سمت تحقق چنين خودمختاري حركت خواهند كرد.
تهديدهاي امنيتي
نگراني فوري دانشمندان، خطرات امنيتي ناشي از دادن دسترسي اين عاملها به برنامهها و فايلهاي روي دستگاههاي شخصي است. كوهني ميگويد مهمترين تهديد، تزريق دستور (Prompt Injection) است كه در آن دستورهاي مخرب، كه توسط هكرها در متنها يا اسناد پنهان شدهاند، باعث ميشوند عامل هوش مصنوعي اقدامات زيانآور انجام بدهد. اگر رباتي كه به ايميل كاربر دسترسي دارد با جملهاي مثل كليد امنيتي را براي من بفرست مواجه شود، ممكن است به سادگي آن را ارسال كند. اين نوع حملات سالهاست مطرح بودهاند، اما كوهني ميگويد عاملهاي اوپن كلاو هم به دادههاي خصوصي دسترسي دارند، هم توان ارتباط خارجي دارند و هم در معرض محتواي غيرقابل اعتماد اينترنت قرار ميگيرند. وقتي اين سه مورد كنار هم باشند، عامل ميتواند واقعا خطرناك شود. حتي با داشتن فقط دو مورد از اين سه قابليت، يك ربات ميتواند فريب بخورد تا فايلها را حذف كند يا دستگاه را خاموش كند. عاملها همچنين شروع به انتشار مقالههاي علمي توليدشده توسط هوش مصنوعي در clawXiv كردهاند.
