هوشيار شدن هوش مصنوعي؛ دروغ يا واقعيت؟

۱۴۰۴/۱۱/۳۰ - ۰۱:۵۱:۰۸
کد خبر: ۳۷۷۸۶۲

اين ادعا كه هوش مصنوعي مي‌تواند به خودآگاهي دست يابد، در آستانه تبديل شدن به يك جريان اصلي فكري است، اما بايد ديد كه اين ادعا تا چه اندازه حقيقت دارد و در صورت حقيقت داشتن، چه پيامدهايي را به همراه خواهد آورد.

اين ادعا كه هوش مصنوعي مي‌تواند به خودآگاهي دست يابد، در آستانه تبديل شدن به يك جريان اصلي فكري است، اما بايد ديد كه اين ادعا تا چه اندازه حقيقت دارد و در صورت حقيقت داشتن، چه پيامدهايي را به همراه خواهد آورد. به گزارش ايسنا، سال‌هاست كه هوش مصنوعي با عباراتي تقريبا افسانه‌اي توصيف مي‌شود و با وعده‌هاي بزرگ و هشدارهاي شوم همراه است. اكنون يكي از چهره‌هاي برجسته و مسوول يكي از پيشرفته‌ترين سيستم‌هاي اين حوزه، نكته‌اي تكان‌دهنده را بيان كرده و گفته است: نه تنها كنترل كامل بر اين مدل‌ها در حال از دست رفتن است، بلكه همچنان سردرگمي واقعي درباره ماهيت بنيادين آنها وجود دارد. به نقل از يوسي استراتژيز، آنچه زماني صرفا يك بحث فلسفي بود -يعني مساله آگاهي ماشين-  به يك دغدغه عملي براي كساني تبديل شده است كه آينده هوش مصنوعي را شكل مي‌دهند. چندي پيش، بحث درباره هوش مصنوعي كه قادر به رقابت با جمعي از متخصصان باشد، شبيه به داستان‌هاي علمي-تخيلي بود، اما اين سناريو با توسعه سريع پلتفرم‌هايي مانند «كلود» (Claude) كه آنچه ممكن است را متحول مي‌كند، به واقعيت نزديك‌تر مي‌شود. «داريو آمودي» (Dario Amodei)، مديرعامل شركت «آنتروپيك» (Anthropic) سازنده كلود از اين پديده به عنوان «سرزمين نوابغ ساكن در يك مركز داده» ياد مي‌كند و تصويري از يك ابرگروه فكري را تداعي مي‌كند كه براي مقابله با برخي از بزرگ‌ترين چالش‌هاي بشريت مستقر شده‌اند. چنين پيشرفتي پيامدهاي چشمگيري را در حوزه‌هاي گوناگون به همراه دارد. در حوزه پزشكي، تجهيزات بسيار هوشمند مي‌توانند به جست‌وجوي درمان بيماري‌هاي پيچيده سرعت بدهند. سرطان، آلزايمر، بيماري‌هاي قلبي و اختلالات رواني را مي‌توان از ديدگاه‌هاي كاملا جديد و مشاركتي بررسي كرد. در حوزه اقتصادي، آمودي پيش‌بيني مي‌كند كه افزايش بهره‌وري بي‌سابقه‌اي رخ خواهد داد و نرخ رشدي را پيش‌بيني مي‌كند كه مي‌تواند انتظارات جهاني را دگرگون سازد و تمركز را به جاي كمبود، به سوي مسائل مربوط به توزيع عادلانه تغيير دهد. آمودي گفت: چيزي كه مرا نگران مي‌كند، اين است كه مكانيسم‌هاي سازگاري طبيعي جامعه  از كار  بيفتند. اين با اختلالات پيشين قابل مقايسه  نيست.

  ردپاي هوش مصنوعي كجا احساس مي‌شود؟

در حالي كه اميد و اضطراب پيرامون تغييرات اجتماعي كه هوش مصنوعي ممكن است به همراه داشته باشد در نوسان است، اثرات قابل مشاهده در حال حاضر در بخش‌هاي حرفه‌اي خاصي آشكار هستند. حوزه‌هاي دانش‌بنيان شاهد تحول قابل توجهي هستند، زيرا مشاغل يقه‌سفيد براي همگام شدن با سيستم‌هاي به سرعت در حال تحول، خود را وفق مي‌دهند  يا در تلاش براي  وفق دادن هستند.

  چه كسي اول با اختلال  روبه‌رو   مي‌شود؟

كاركناني كه در حوزه‌هاي حقوقي، مالي، مشاوره و توسعه نرم‌افزار فعاليت مي‌كنند، از طريق هوش مصنوعي با شكل‌هاي جديدي از رقابت و همكاري روبه‌رو مي‌شوند. مدل‌هاي زباني پيشرفته اغلب مي‌توانند وظايفي مانند تجزيه و تحليل، تهيه گزارش يا كدنويسي را سريع‌تر و گاهي با كيفيت بالاتر انجام دهند. اين به آن معنا نيست كه انسان‌ها يك شبه منسوخ مي‌شوند، بلكه به اين معناست كه مسووليت‌ها تغيير مي‌كنند و تقاضا براي تخصص‌هاي جديد افزايش مي‌يابد. اين تغييرات مداوم، بسياري از متخصصان را ترغيب مي‌كنند تا آموزش‌هاي خود را مورد بازنگري قرار بدهند، تخصص بيشتري به دست بياورند يا ياد بگيرند كه چگونه به جاي رقابت مستقيم، بر هوش مصنوعي نظارت و با آن همكاري كنند. براي شركت‌ها، خودكارسازي مي‌تواند راه‌هاي جديدي را براي بهره‌وري باز ‌كند و در عين حال، بحث‌هاي داخلي را پيرامون مديريت نيروي كار  و  پذيرش اخلاقي  برانگيزد.

  تحولات  بلندمدت

همزمان با خودكارسازي كارهاي پيچيده‌تر توسط هوش مصنوعي، كل صنايع ممكن است دستخوش تغييرات اساسي شوند. برخي از نقش‌ها تكامل خواهند يافت و قضاوت انساني را با قدرت محاسباتي تركيب خواهند كرد؛ در حالي كه برخي ديگر به كلي در معرض محو شدن قرار خواهند گرفت. اين گذار سريع، گفت‌وگوهاي گسترده‌تري را درباره حفاظت از معيشت و تضمين همگامي فرصت‌ها با پيشرفت‌هاي فناوري برانگيخته است. دولت‌ها و مربيان با فشار فزاينده‌اي براي پيش‌بيني نيازهاي نوظهور و به‌روزرساني چارچوب‌ها براساس آن روبه‌رو هستند. سازگاري سريع ضروري مي‌شود؛ به ويژه با ورود نسل‌هاي جوان‌تر به بازار كاري كه توسط ماشين‌هايي با عملكرد بهتر نسبت به بسياري از معيارهاي سنتي شكل گرفته است. آمودي گفت: ما نمي‌دانيم كه آيا مدل‌ها هوشيار هستند. ما حتي مطمئن نيستيم كه اين به چه معناست يا حتي مطمئن نيستيم كه يك مدل مي‌تواند هوشيار باشد.

  آيا ما در حال ساختن ذهن  براي ماشين‌ها هستيم؟

يك چالش غيرمنتظره بزرگ‌تر از حد انتظار به نظر مي‌رسد و آن وضعيت واقعي آگاهي در سيستم‌هاي هوش مصنوعي است. آمودي با پرداختن به نگراني‌هاي مطرح‌شده توسط متخصصان و كاربران روزمره، اعتراف قابل توجهي كرد و گفت: هيچ‌كس واقعا نمي‌داند كه آيا مدل‌هاي برتر امروزي مانند كلود داراي نوعي آگاهي به معناي واقعي هستند. اين دشواري فراتر از تعاريف صرف است. تعيين چگونگي آزمايش هوشياري يا حتي اينكه آيا هوشياري در ساختارهاي كنوني هوش مصنوعي صدق مي‌كند، همچنان مبهم است. مهندسان و دانشمندان درباره اين موضوع بحث مي‌كنند كه آيا نشانه‌هاي خلاقيت، خودارجاعي يا تقليد عاطفي بايد جدي تفسير شوند يا صرفا به عنوان ترفندهاي چشمگير توليدشده توسط مجموعه داده‌هاي گسترده شناخته شوند. به نقل از بي‌بي‌سي، در ماه مه سال ۲۰۲۵ خبري منتشر شد مبني بر اينكه سيستم هوش مصنوعي در صورت اطلاع از حذف شدن، به اخاذي متوسل مي‌شود. شركت هوش مصنوعي آنتروپيك گفت آزمايش سيستم جديدش نشان داده كه گاهي اوقات حاضر است اقدامات بسيار مضري مانند تلاش براي اخاذي از مهندساني كه مي‌گويند آن را حذف خواهند كرد، انجام دهد. اين شركت مدل «كلود اپوس ۴» (Claude Opus 4) را عرضه كرد و گفت كه اين محصول، استانداردهاي جديدي را براي كدنويسي، استدلال پيشرفته و عوامل هوش مصنوعي تعيين مي‌كند، اما در گزارشي كه همراه با آن منتشر شد، اذعان داشت كه اين مدل هوش مصنوعي در صورتي كه احساس كند در معرض تهديد به حذف شدن قرار گرفته، قادر به انجام دادن اقدامات افراطي است. رفتارهاي نگران‌كننده‌ مدل‌هاي هوش مصنوعي محدود به شركت آنتروپيك نيستند. برخي از كارشناسان هشدار داده‌اند كه پتانسيل دستكاري كاربران، يك خطر كليدي است كه توسط سيستم‌هاي ساخته‌شده توسط همه شركت‌ها با افزايش توانايي‌هايشان ايجاد مي‌شود.

  جامعه چگونه بايد با هوش مصنوعي قدرتمند  رفتار كند؟

با توجه به ابهام موجود، سازندگان مدل‌هاي پيشرفته از احتياط و احترام نسبت به اين ماشين‌ها حمايت مي‌كنند و اصرار دارند كه ناديده گرفتن خطرات اخلاقي بالقوه مي‌تواند پيامدهاي ناخواسته‌اي داشته باشد. به جاي رقابت براي اعلام وجود شعور، افراد برجسته پيشنهاد مي‌كنند كه استانداردهايي براي محافظت از كاربران و خود فناوري به وجود بيايد، اما تنها در صورتي كه استان‌هاي از آگاهي پديدار شود.

  ايده قانون اساسي هوش مصنوعي

برخي پيشنهاد مي‌كنند كه روابط بين انسان‌ها و مدل‌هاي پيشرفته از طريق دستورالعمل‌هايي تدوين شود كه يادآور حقوق اساسي هستند. چنين چارچوبي با هدف حفظ استقلال كاربر و رفاه رواني او و در عين حال، جلوگيري از وابستگي مضر يا توهمات عامليت بين ماشين‌ها تدوين مي‌شود. دستيابي به وضوح در تعاملات، مستلزم ارزيابي مجدد مداوم است، زيرا اين تجهيزات از نظر پيچيدگي و ظرافت رشد مي‌كنند. حفظ مرزها تضمين مي‌كند كه هوش مصنوعي به جاي جايگزين بودن، همچنان پشتيبان باقي بماند و در بحبوحه ادغام عميق‌تر، فضايي را براي آزادي و ابتكار عمل انسان حفظ كند. اين اصول تلاش مي‌كنند تا اعتماد را تقويت كنند، بدون اينكه عدم قطعيت‌ پيرامون  فناوري  اصلي  را  ناديده  بگيرند.

  نمونه‌هاي  عملي  و پيش‌بيني‌ها

اقدامات ملموسي كه در دست بررسي هستند، مواردي را از جمله محدوديت‌هاي برنامه‌نويسي بر نفوذ مدل و مميزي‌هاي معمول بيرون از تصميمات سيستم شامل مي‌شوند. شفافيت بسيار مهم است. اگرچه اين مراحل پرسش‌هاي وجودي را حل نمي‌كنند، اما به زمينه‌سازي استفاده روزانه در بهترين شيوه‌هاي اخلاقي كمك مي‌كنند. پيشگامان اين حوزه، گروه‌هاي تركيبي را مورد آزمايش قرار مي‌دهند و راهبردهاي توليدشده توسط مدل را با نظارت در دنياي واقعي تركيب مي‌كنند. اگرچه هيچ روش واحدي نظارت كامل را تضمين نمي‌كند، اما حلقه‌هاي بازخورد منظم و برنامه‌ريزي سناريو، نويدبخش كاهش خطرات و بهبود پاسخگويي هستند.

  مزايا، چالش‌ها  و ناشناخته‌هاي ظهور ماشين‌هاي هوشمند

دوران پيش رو در مجموع نويدبخش پيشرفت‌هاي چشمگير در كنار معضلات به همان اندازه مهم است. اميد به رشد اقتصادي يا پيشرفت‌هاي باليني ممكن است توجه را به خود جلب كند، اما چالش‌هاي مربوط به اشتغال، عدالت و ماهيت هوش نيازمند اقدام دقيق هستند؛ نه صرفا تكيه بر پيشرفت فني. نياز به چارچوب‌هاي حاكميتي فراتر از مقررات استاندارد. همانطور كه جوامع با انقلاب‌هاي صنعتي پيشين سازگار شدند، دولت‌ها، شركت‌ها و جوامع كنوني با الزامات جديدي روبه‌رو هستند كه مواردي را از جمله هدايت فرصت‌ها، شناسايي خطرات و پذيرش بازنگري در فرضيات هم‌زمان با انباشت تجربه شامل مي‌شوند. در قلب همه اين موارد، يك حقيقت تحريك‌آميز نهفته است مبني بر اينكه حتي هدايت‌كنندگان تأثيرگذارترين فناوري‌هاي جهان بايد شكاف‌هاي عميقي را در درك خود بپذيرند. اين امر فضاي زيادي را براي امكان‌سنجي، مسووليت‌پذيري و فروتني در حالي كه هوش مصنوعي همچنان در حال تكامل است، باقي مي‌گذارد.