درباره قوانين هوش مصنوعي اروپا چه مي‌دانيم؟

۱۴۰۲/۰۹/۲۱ - ۰۱:۳۹:۱۶
کد خبر: ۳۰۲۶۸۸

سياست‌گذاران و قانونگذاران اتحاديه اروپا جمعه گذشته، بر سر اولين مجموعه قوانين جامع جهان براي ساماندهي استفاده از هوش مصنوعي در ابزارهايي مانند چت‌جي‌پي‌تي و نظارت بيومتريك، به توافق رسيدند.

سياست‌گذاران و قانونگذاران اتحاديه اروپا جمعه گذشته، بر سر اولين مجموعه قوانين جامع جهان براي ساماندهي استفاده از هوش مصنوعي در ابزارهايي مانند چت‌جي‌پي‌تي و نظارت بيومتريك، به توافق رسيدند. به گزارش ايسنا، مقامات اروپايي در هفته‌هاي آينده، جزيياتي را بررسي خواهند كرد كه ممكن است در قانون نهايي تغييراتي دهند. انتظار مي‌رود اين قانون در اوايل سال ميلادي آينده، اجرايي شده و در سال ۲۰۲۶ به‌كار برده شود. تا آن زمان، شركت‌ها تشويق مي‌شوند تا براي اجراي تعهدات كليدي مقررات، در يك پيمان هوش مصنوعي داوطلبانه ثبت نام كنند. بر اساس گزارش رويترز، موضوعات اصلي توافق شده عبارتند از: سيستم‌هاي هوش مصنوعي به اصطلاح پرريسك يعني سيستم‌هايي كه پتانسيل قابل توجهي براي آسيب رساندن به سلامت، ايمني، حقوق اساسي، محيط زيست، دموكراسي، انتخابات و حاكميت قانون دارند، بايد از مجموعه‌اي از الزامات پيروي كنند به عنوان مثال، تاثير آنها بر حقوق اساسي و تعهدات براي دسترسي به بازار اتحاديه اروپا، ارزيابي شود. سيستم‌هاي هوش مصنوعي كه ريسك‌هاي آنها محدود در نظر گرفته مي‌شوند، مشمول تعهدات شفافيت بسيار سبكي خواهند بود، مانند برچسب‌هاي افشايي كه اعلام مي‌كنند محتوا توسط هوش مصنوعي توليد شده است تا به كاربران اجازه دهند درباره نحوه استفاده از آن، تصميم بگيرند.

 

استفاده از هوش مصنوعي در اجراي قانون

استفاده از سيستم‌هاي شناسايي بيومتريك از راه دور لحظه‌اي در فضاهاي عمومي توسط مجريان قانون، تنها براي كمك به شناسايي قربانيان آدم‌ربايي، قاچاق انسان، بهره‌كشي و جلوگيري از يك تهديد تروريستي خاص و فعلي، مجاز خواهد بود. همچنين استفاده از اين سيستم‌ها، در تلاش براي رديابي مظنونان به جرايم تروريسم، قاچاق، بهره‌كشي جنسي، قتل، آدم ربايي، تجاوز، سرقت مسلحانه، مشاركت در يك سازمان جنايي و جرايم محيط زيستي، مجاز خواهند بود.

 

سيستم‌هاي هوش مصنوعي همه منظوره

و مدل‌هاي بنيادي

سيستم‌هاي هوش مصنوعي همه منظوره و مدل‌هاي بنيادي مشمول الزامات شفافيت مانند تهيه مستندات فني، رعايت قانون كپي رايت اتحاديه اروپا و عرضه خلاصه‌هاي دقيق درباره محتواي مورد استفاده براي آموزش الگوريتم قرار مي‌گيرند. مدل‌هاي بنيادي طبقه‌بندي‌شده به عنوان داراي ريسك سيستمي و سيستم‌هاي هوش مصنوعي همه منظوره با تاثير بالا، بايد ارزيابي‌هاي مدل و خنثي‌سازي ريسك‌ها، انجام آزمايش‌هاي ارزيابي رفتار خصمانه، گزارش به كميسيون اروپا درباره حوادث جدي، اطمينان از امنيت سايبري و گزارش درباره كارايي انرژي خود را انجام دهند. تا زماني كه استانداردهاي هماهنگ اتحاديه اروپا منتشر نشود، سيستم‌هاي هوش مصنوعي همه منظوره با ريسك سيستماتيك، ممكن است براي مطابقت با مقررات، به شيوه نامه‌هاي عملي، متكي باشد.

 

هوش مصنوعي ممنوع

مقررات اتحاديه اروپا، موارد زير را ممنوع مي‌كند: سيستم‌هاي طبقه‌بندي بيومتريك كه از ويژگي‌هاي حساسي مانند عقايد سياسي، مذهبي، فلسفي، گرايش جنسي و نژاد استفاده مي‌كنند. استخراج بدون هدف تصاوير صورت از اينترنت يا فيلم‌هاي دوربين مدار بسته براي ايجاد پايگاه‌هاي اطلاعاتي تشخيص چهره. تشخيص احساسات در محيط كار و موسسات آموزشي. امتيازدهي اجتماعي بر اساس رفتار اجتماعي يا ويژگي‌هاي فردي. سيستم‌هاي هوش مصنوعي كه رفتار انسان را براي دور زدن اراده آزادش، دستكاري مي‌كنند. هوش مصنوعي مورد استفاده براي بهره‌برداري از آسيب‌پذيري افراد به دليل سن، ناتواني، موقعيت اجتماعي يا اقتصادي.

 

مجازات براي نقض مقررات

بر اساس تخلف و بزرگي شركت درگير، جريمه‌ها از ۷.۵ ميليون يورو (۸ ميليون دلار) يا ۱.۵ درصد گردش مالي سالانه جهاني شروع مي‌شود و تا ۳۵ ميليون يورو يا هفت درصد گردش مالي جهاني، افزايش پيدا مي‌كند.

ارسال نظر