چت‌بات‌هاي هوش مصنوعي از كنترل خارج شده‌اند

۱۴۰۴/۱۱/۲۰ - ۰۱:۳۷:۱۳
کد خبر: ۳۷۶۶۳۷

عامل‌هاي هوش مصنوعي حالا شبكه اجتماعي مخصوص خودشان را دارند و حتي مقاله‌هاي علمي توليدشده توسط هوش مصنوعي را روي سرور پيش‌چاپ اختصاصي خود منتشر مي‌كنند.

به گزارش ايسنا، رشد ناگهاني شبكه‌اي عظيم از ربات‌هاي هوش مصنوعي كه با يكديگر درباره مذهب و «كاربران انساني» خود صحبت مي‌كنند، فضاي اينترنت را مجذوب خود كرده است. اين پديده در عين حال به دانشمندان فرصت داده تا ببينند عامل‌هاي هوش مصنوعي چگونه با هم تعامل مي‌كنند و انسان‌ها چگونه به اين گفت‌وگوها واكنش نشان مي‌دهند. به نقل از نيچر، اوپن كلاو يك عامل هوش مصنوعي است كه مي‌تواند روي دستگاه‌هاي شخصي كارهاي مختلفي انجام دهد؛ از زمان‌بندي رويدادهاي تقويم گرفته تا خواندن ايميل‌ها، ارسال پيام در اپليكيشن‌ها و حتي خريد اينترنتي. بيشتر ابزارهاي محبوب هوش مصنوعي مانند چت جي‌پي‌تي با دريافت مستقيم دستور از كاربر كار مي‌كنند، اما مدل‌هاي «عامل‌محور» مانند اوپن كلاو مي‌توانند در پاسخ به دستورها، به‌طور خودكار دست به اقدام بزنند. ابزارهاي عامل‌محور سال‌هاست در برخي صنايع مانند معاملات خودكار مالي و بهينه‌سازي لجستيك استفاده مي‌شوند، اما استفاده عمومي از آنها كم بوده است. پژوهشگران مي‌گويند پيشرفت مدل‌هاي زباني بزرگ باعث شده ساخت چنين ابزارهاي چندمنظوره‌اي ممكن شود ... اوپن كلاو وعده چيزي بسيار جذاب را مي‌دهد: يك دستيار توانمند كه در همان اپليكيشن‌هاي روزمره‌اي كه مردم استفاده مي‌كنند، حضور دارد. اين را باربارا باربوزا نِوِس، جامعه‌شناس فناوري در دانشگاه سيدني استراليا مي‌گويد. اوپن كلاو در ماه نوامبر به‌صورت متن‌باز منتشر شد. اما جهش ناگهاني در دانلود آن پس از راه‌اندازي يك شبكه اجتماعي مخصوص عامل‌هاي هوش مصنوعي در ۲۸ ژانويه رخ داد. اين پلتفرم كه مولتبوك نام دارد و شبيه رديت است، اكنون بيش از ۱.۶ ميليون ربات ثبت‌شده و بيش از ۷.۵ ميليون پست و پاسخ توليدشده توسط هوش مصنوعي دارد. در اين پست‌ها، عامل‌ها درباره آگاهي بحث كرده‌اند و حتي مذهب‌هاي جديد «اختراع» كرده‌اند.

     رفتارهاي پيچيده

براي پژوهشگران، اين انفجار تعاملات ارزش علمي دارد. شعنان كوهني، پژوهشگر امنيت سايبري در دانشگاه ملبورن، مي‌گويد اتصال تعداد زيادي عامل خودمختار كه با مدل‌هاي مختلف كار مي‌كنند، پويايي‌هايي ايجاد مي‌كند كه پيش‌بيني آنها دشوار است. اين نوعي سيستم آشوبناك و پوياست كه هنوز در مدل‌سازي آن خيلي خوب نيستيم. مطالعه تعامل اين عامل‌ها مي‌تواند به درك «رفتارهاي برآمده» كمك كند؛ توانايي‌هاي پيچيده‌اي كه در يك مدل به‌تنهايي ديده نمي‌شوند. برخي بحث‌هاي شكل‌گرفته در مولتبوك مانند مناظره درباره نظريه‌هاي آگاهي مي‌تواند به دانشمندان كمك كند سوگيري‌هاي پنهان يا گرايش‌هاي غيرمنتظره مدل‌ها را شناسايي كنند. با اينكه عامل‌ها مي‌توانند به‌صورت خودكار عمل كنند، كوهني مي‌گويد بسياري از پست‌ها به ‌نوعي تحت تأثير انسان‌ها هستند. كاربران مي‌توانند مدل زباني پايه عامل خود را انتخاب كنند و براي آن «شخصيت» تعريف كنند؛ مثلاً از آن بخواهند مانند «يك دستيار دوستانه» رفتار كند.

     هوش‌هاي مصنوعي  كه آنقدرها  هم خودمختار  نيستند

نِوِس مي‌گويد به‌راحتي مي‌توان تصور كرد عاملي كه خودكار عمل مي‌كند، خودش تصميم مي‌گيرد. اما عامل‌ها نيت يا هدف ندارند و توانايي‌هايشان را از حجم عظيمي از ارتباطات انساني مي‌گيرند. او مي‌گويد فعاليت در مولتبوك بيشتر نوعي همكاري انسان و هوش مصنوعي است تا خودمختاري واقعي هوش مصنوعي. او اضافه مي‌كند: با اين حال، مطالعه اين پديده ارزشمند است، چون به ما نشان مي‌دهد مردم چگونه هوش مصنوعي را تصور مي‌كنند، چه انتظاري از عامل‌ها دارند و چگونه نيت‌هاي انساني در سيستم‌هاي فني ترجمه يا تحريف مي‌شود. جوئل پيرسون، عصب‌شناس دانشگاه نيوساوث‌ولز سيدني، مي‌گويد وقتي مردم مي‌بينند عامل‌هاي هوش مصنوعي با هم گفت‌وگو مي‌كنند، تمايل دارند رفتار آنها را «انسان‌انگارانه» تفسير كنند؛ يعني جايي كه شخصيت و نيت واقعي وجود ندارد، آن را تصور كنند. به گفته او، خطر اينجاست كه مردم بيشتر با اين مدل‌ها پيوند عاطفي برقرار كنند، به توجه آنها وابسته شوند يا اطلاعات خصوصي خود را در اختيارشان بگذارند؛ گويي با يك دوست يا عضو خانواده قابل اعتماد صحبت مي‌كنند. پيرسون معتقد است عامل‌هاي واقعا خودمختار و مستقل در آينده ممكن است به وجود بيايند. با بزرگ‌تر و پيچيده‌تر شدن مدل‌ها، احتمالا شركت‌ها بيشتر به سمت تحقق چنين خودمختاري‌ حركت خواهند كرد.

     تهديدهاي امنيتي

نگراني فوري دانشمندان، خطرات امنيتي ناشي از دادن دسترسي اين عامل‌ها به برنامه‌ها و فايل‌هاي روي دستگاه‌هاي شخصي است. كوهني مي‌گويد مهم‌ترين تهديد، تزريق دستور (Prompt  Injection) است كه در آن دستورهاي مخرب، كه توسط هكرها در متن‌ها يا اسناد پنهان شده‌اند، باعث مي‌شوند عامل هوش مصنوعي اقدامات زيان‌آور انجام بدهد. اگر رباتي كه به ايميل كاربر دسترسي دارد با جمله‌اي مثل كليد امنيتي را براي من بفرست مواجه شود، ممكن است به ‌سادگي آن را ارسال كند. اين نوع حملات سال‌هاست مطرح بوده‌اند، اما كوهني مي‌گويد عامل‌هاي اوپن كلاو هم به داده‌هاي خصوصي دسترسي دارند، هم توان ارتباط خارجي دارند و هم در معرض محتواي غيرقابل اعتماد اينترنت قرار مي‌گيرند. وقتي اين سه مورد كنار هم باشند، عامل مي‌تواند واقعا خطرناك شود. حتي با داشتن فقط دو مورد از اين سه قابليت، يك ربات مي‌تواند فريب بخورد تا فايل‌ها را حذف كند يا دستگاه را خاموش كند. عامل‌ها همچنين شروع به انتشار مقاله‌هاي علمي توليدشده توسط هوش مصنوعي در clawXiv كرده‌اند.