شماره امروز: ۵۴۷

فناوری هزاره سوم، تهدید یا فرصت در دنیای واقعی

| کدخبر: 130419 | |

بسیاری بر این اعتقادند که هوش مصنوعی دیگر فناوری آینده محسوب نمی‌شود و در حال حاضر کامپیوترهایی ساخته شده‌اند

گروه دانش و فن|

 بسیاری بر این اعتقادند که هوش مصنوعی دیگر فناوری آینده محسوب نمی‌شود و در حال حاضر کامپیوترهایی ساخته شده‌اند که در مواردی مثل بازی‌های شطرنج و گو و همین‌طور فعالیت‌هایی نظیر کنترل بازار سهام و گفت‌وگو از انسان بسیار هوشمندانه‌تر عمل می‌کنند. کامپیوترها و الگوریتم‌های هوش مصنوعی که آنها را به ماشین‌های هوشمند تبدیل می‌کنند، به سرعت در حال رشد هستند و بدون تردید در آینده نزدیک در همه زمینه‌ها از انسان بهتر عمل خواهند کرد.

یکی از محققین روانشناسی دانشگاه نیویورک به نام‌گری مارکوس می‌گوید: تقریبا همه فعالان عرصه هوش مصنوعی باور دارند که ماشین‌ها نهایتا بر انسان تسلط پیدا خواهند کرد و تنها اختلاف‌نظر بین افراد خوش‌بین و دیرباورها، زمان رسیدن این رویداد است. به عقیده آینده‌پژوه‌های موافق و خوش‌بین مثل ری کرزویل، حداکثر تا دو دهه دیگر شاهد حضور هوش مصنوعی برتر خواهیم بود و بدبین‌ترین نظریه‌پردازها این مساله را تا نهایتا یک قرن دیگر اجتناب‌ناپذیر می‌دانند.

به عقیده افراد خوش‌بین به هوش مصنوعی برتر، عملکرد بیولوژیکی مغز انسان به شکل قابل‌توجهی بی‌همتا، غیرقابل شبیه‌سازی و ناشناخته است و به همین دلیل تسلط کامل هوش مصنوعی بر انسان را غیرممکن می‌دانند. به استدلال آن‌ها؛ هوش مصنوعی حتی با بهترین کارایی و عملکرد بازهم یک مکانیسم محدود به قوانین فیزیک است و نمی‌توانند هیچ مشکل ناشناخته و غیرقابل‌حلی ایجاد کنند.

یکی از نظریه‌های نگران‌کننده فعلی تبدیل‌شدن هوش مصنوعی به آگاهی است؛ یعنی در آینده ماشین‌های هوشمند قادر خواهند بود کاملا مثل انسان فکر کنند. این نظریه منتقدان زیادی دارد که یکی از آنها پل آلن است. آلن معتقد است که ما هنوز راه درازی تا تولید هوش مصنوعی جامع (AGI) داریم. AGI نوعی هوش مصنوعی است که کاملاً مانند انسان عمل می‌کند و هوشمند بودن آن به انجام فعالیت خاصی محدود نیست. ساخت چنین ماشینی به شناخت کامل تئوری عملکرد آگاهی انسان و بازسازی آن نیاز دارد. ولی ماوری شاناهان (Murray Shanahan)، متخصص روباتیک در کالج سلطنتی لندن با تیم آلن موفق نیست و از دیدگاه او باید از تضاد مفهوم آگاهی انسان با ماهیت دیجیتال هوش مصنوعی چشم‌پوشی کرد.او می‌گوید: مطمئنا آگاهی انسان مفهومی بسیار جذاب و مهم است ولی من فکر نمی‌کنم که برای ساخت هوش مصنوعی جامع انسان‌گونه، بازسازی عینی آگاهی انسان الزامی باشد. به عبارت دقیق‌تر واژه «آگاهی» به مجموعه‌ای از صفات متمایز روان‌شناختی و ذهنی اشاره دارد که به همراه هم اندیشه یا به تعبیری قدرت شناخت انسان را شکل می‌دهند.

تصور وجود ماشینی که بتواند تعداد زیادی از این صفات را بازسازی کند، غیرممکن نیست و ساخت یک هوش مصنوعی به‌شدت هوشمند ولی ناتوان از درک دنیا به‌صورت خودآگاه، هوشیار و عامل امکان‌پذیر است. به عقیده شاناهان، شاید بتوان هوش و آگاهی را در یک ماشین با هم ترکیب کرد ولی باید به خاطر داشت که آنها دو مفهوم کاملا مستقل و جدا از هم هستند.

 نباید از هوش مصنوعی هراس داشت

 در ماه ژانویه مارک زاکر برگ گفت که ما نباید از پیشرفت هوش مصنوعی هراس داشته باشیم و این فناوری می‌تواند مزایای غیرقابل‌باوری به دنیای ما ارزانی کند. حداقل نیمی از گفته‌های او کاملا درست هستند و محاسن بی‌شمار هوش مصنوعی ازجمله خودروهای خودران و روش‌های درمانی جدید را نمی‌توان انکار کرد ولی هیچ تضمینی وجود ندارد که همه ماشین‌های هوشمند آینده با مقاصد انسان‌دوستانه ساخته خواهند شد.

یک ماشین هوشمند بسیار پیشرفته را در نظر بگیرید که برای انجام کارهایی مثل حل مشکلات اقتصادی حاد یا نفوذ به سیستم اطلاعاتی دشمن طراحی شده است. این ماشین با همه توانایی وظایف تخصصی‌اش را به بهترین نحو انجام می‌دهد ولی در خارج از این حیطه کاملا بی‌استفاده خواهد بود. به عنوان‌مثال DeepMind گوگل تبحر زیادی در بازی گو دارد ولی از هیچ مهارت دیگری برخوردار نیست و البته نیازی هم به آن ندارد.

با این پیش‌فرض احتمالا در آینده هیچ نوع اقدام پیشگیرانه و امنیتی در خارج از محدوده فعالیت ماشین‌های هوشمند اعمال نخواهد شد. به عنوان نمونه می‌توان به ویروس کامپیوتری استاکس‌نت اشاره کرد که توسط ارتش ایالات‌متحده و اسراییل برای نفوذ در سیستم‌های کنترلی نیروگاه‌های هسته‌ای ایران طراحی شد ولی نهایتا (ناخواسته یا عمدی) نیروگاه‌های هسته‌ای روسیه را موردحمله قرار داد.

نمونه دیگر بدافزار فلیم (Flame) است که هدف از توسعه آن جاسوسی سایبری در خاورمیانه بود. اگر در آینده استاکس‌نت یا فلیم تغییر شکل پیدا کنند و با گسترش کنترل نشده به اهدافی ناخواسته حمله‌ور شوند نباید باعث غافلگیری ما بشود. البته این بدافزارها هیچ‌کدام هوش مصنوعی نیستند ولی به دلیل ماهیت نرم‌افزاری به‌راحتی می‌توانند در آینده توسط هوش مصنوعی مورداستفاده قرار بگیرند.

 ابرهوش‌ مصنوعی قادر به ارتکاب اشتباه نیست

از دیدگاه ریچارد لوسمور محقق هوش مصنوعی و خالق کتاب‌های کمیک Surfing Samurai Robots، بیشتر سناریوهای دخیل در رستاخیز ماشین‌ها و نابودی بشر به دست هوش مصنوعی غیرقابل درک هستند. به گفته او در همه این سناریوها فرض بر این گذاشته شده که هوش مصنوعی برتر کاملا از نتایج اقدام خود آگاه است و می‌داند که تصمیم نابودی بشر از یک تضاد منطقی ناشی می‌شود ولی بااین‌حال خود را به اجرای آن مجاب می‌کند.به اعتقاد لوسمور اگر واقعا هوش مصنوعی در هنگام تصمیم‌گیری برای نابودی انسان اینگونه عمل کند، احتمالا در طول عمر خود بارها با تضادهای منطقی ازاین‌دست روبرو شده که برای نادیده گرفتن هرکدام ناگزیر از تخریب پایگاه دانش (محل ذخیره‌سازی داده‌های ساختاریافته و غیر ساختاریافته هوش مصنوعی) و تغییر معماری منطقی خود است که به‌این‌ترتیب دیگر هوش مصنوعی برتر و بالطبع خطرآفرین نخواهد بود. علاوه بر این او افرادی را که معتقدند «هوش مصنوعی فقط کار‌هایی را انجام می‌دهد که برای آن برنامه‌نویسی ‌شده است» را به ارایه استدلال غلط و سفسطه‌انگیزی متهم می‌کند و نظریات آنها را مشابه کسانی می‌داند که در آغاز عصر دیجیتال، عین این عبارت را برای قابلیت‌های بالقوه کامپیوتر به کار می‌بردند و هرگونه انعطاف‌پذیری و عملکرد خارج از محدوده را برای آن غیرممکن می‌دانستند.

مکینتایر و آرمسترانگ باور دارند هوش‌های مصنوعی آینده فقط کارهایی را انجام خواهند داد که برای آن برنامه‌نویسی شده‌اند ولی اگر سازنده کار خود را بسیار خوب انجام بدهد و هوش مصنوعی به‌اندازه کافی باهوش باشد که بتوان آن را ASI محسوب کرد، باید بتواند در محدوده عملکرد خود خط قرمز بین متن قانون (پیگیری بدون انعطاف وظایف) با روح قانون (توجه به انتظارات و مصلحت‌های انسان) را تشخیص بدهد. هنگامی که افراد به صحبت درباره هوش مصنوعی فوق مدرن می‌پردازند، بطور معمول دچار ترس و نگرانی می‌شوند و اینگونه پیش‌بینی می‌کنند که چنین هوشی می‌تواند خود نحوه یادگیری را فرا گیرد و پیشرفته‌تر از آن شود که انسان قادر به درکش باشد. چنین الگوریتم پیشرفت‌های با قرارگیری در دست افراد خطرناک یا احتمالا به‌صورت خودکار می‌تواند به سلطه بر حکومت‌ها و ارتش‌های جهان دست یابد، دستیابی به سطوحی از نظارت یا جاسوسی به سبک داستان‌های جورج اورول، تقلب و دستکاری، کنترل جوامع بر جوامع و احتمالا حتی کنترل کل عرصه‌های منازعه سلاح‌های مرگ‌بار خودکار نظیر پهپادهای نظامی را امکان‌پذیر کند.

اما برخی از متخصصان هوش مصنوعی، چنین ترس‌هایی را بی‌اساس می‌دانند و معتقدند که در واقع، هوش مصنوعی فوق پیشرفته می‌تواند در اداره دنیا، عملکرد بهتری از انسان‌ها داشته باشد. این ترس‌ها به‌خودی خود خطر اصلی محسوب می‌شوند؛ زیرا می‌توانند به عنوان مانعی بر سر راه پیشرفت انسان قرار گیرند. توماس میکولوف، پژوهشگر هوش مصنوعی در فیسبوک، ماه گذشته در کنفرانس «هوش مصنوعی سطح انسان» گفت: شاید عدم دستیابی به هوش مصنوعی، خطر اصلی برای بشریت باشد.

 

اخبار مرتبط

ارسال نظر

نظر کاربران