فشار پنتاگون بر شركتهاي فناوري براي حضور در شبكههاي نظامي
پنتاگون شركتهاي بزرگ هوش مصنوعي از جمله «اوپنايآي» و «آنتروپيك» را تحت فشار قرار داده تا ابزارهاي هوش مصنوعي خود را در شبكههاي طبقهبنديشده نظامي در دسترس قرار دهند، آن هم بدون بسياري از محدوديتهاي استانداردي كه اين شركتها معمولا براي كاربران خود اعمال ميكنند.
پنتاگون شركتهاي بزرگ هوش مصنوعي از جمله «اوپنايآي» و «آنتروپيك» را تحت فشار قرار داده تا ابزارهاي هوش مصنوعي خود را در شبكههاي طبقهبنديشده نظامي در دسترس قرار دهند، آن هم بدون بسياري از محدوديتهاي استانداردي كه اين شركتها معمولا براي كاربران خود اعمال ميكنند. به گزارش ايسنا، به گفته دو منبع آگاه، اميل مايكل، مدير ارشد فناوري پنتاگون در رويدادي در كاخ سفيد به مديران شركتهاي فناوري اعلام كرد كه ارتش امريكا قصد دارد مدلهاي هوش مصنوعي را هم در شبكههاي غيرطبقهبنديشده و هم در شبكههاي طبقهبنديشده در دسترس قرار دهد. يك مقام رسمي كه نخواست نامش فاش شود به رويترز گفت: پنتاگون در حال حركت به سمت استقرار پيشرفتهترين قابليتهاي هوش مصنوعي در تمامي سطوح طبقهبندي اطلاعات است. اين جديدترين تحول در مذاكرات جاري ميان پنتاگون و شركتهاي پيشرو هوش مصنوعي مولد درباره نحوه استفاده امريكا از اين فناوري در ميدانهاي نبرد آينده است، ميدانهايي كه هماكنون نيز تحت سلطه پهپادهاي خودكار، رباتها و حملات سايبري قرار دارند. اظهارات مايكل احتمالا به تشديد بحثهاي جنجالي درباره تمايل ارتش امريكا به استفاده بدون محدوديت از هوش مصنوعي و تلاش شركتهاي فناوري براي تعيين مرزهاي كاربرد اين ابزارها منجر خواهد شد. در حال حاضر، بسياري از شركتهاي هوش مصنوعي ابزارهاي سفارشي براي ارتش امريكا طراحي كردهاند كه اغلب فقط در شبكههاي غيرطبقهبنديشده ــ شبكههايي كه معمولا براي امور اداري نظامي استفاده ميشوند ــ در دسترس هستند. تنها شركت «آنتروپيك»، از طريق واسطهها در برخي محيطهاي طبقهبنديشده فعال است، اما دولت امريكا همچنان ملزم به رعايت سياستهاي استفاده اين شركت است. شبكههاي طبقهبنديشده براي انجام طيف گستردهاي از فعاليتهاي حساستر مانند برنامهريزي عمليات يا هدفگيري تسليحات به كار ميروند. هنوز مشخص نيست پنتاگون دقيقا چگونه و چه زماني قصد دارد چتباتهاي هوش مصنوعي را در اين شبكهها مستقر كند. مقامات نظامي اميدوارند از توانايي هوش مصنوعي در تجميع و تحليل اطلاعات براي كمك به تصميمگيري استفاده كنند، با اين حال، پژوهشگران هشدار دادند كه اين ابزارها با وجود قدرت بالا، ممكن است دچار خطا شوند يا اطلاعات نادرست اما در ظاهر قابل قبول توليد كنند، خطاهايي كه در محيطهاي طبقهبنديشده ميتواند پيامدهاي مرگبار داشته باشد. شركتهاي هوش مصنوعي براي كاهش ريسكهاي احتمالي، در مدلهاي خود سازوكارهاي حفاظتي تعبيه كرده و از مشتريان ميخواهند دستورالعملهاي مشخصي را رعايت كنند اما برخي مقامات پنتاگون نسبت به اين محدوديتها انتقاد دارند و معتقدند تا زماني كه استفاده از اين ابزارها مطابق قوانين امريكا باشد، ارتش بايد بتواند از فناوريهاي تجاري بدون محدوديت بهره ببرد. اوپنايآي با پنتاگون به توافقي دست يافت كه بر اساس آن ارتش امريكا ميتواند ابزارهاي اين شركت از جمله «چتجيپيتي» را در يك شبكه غيرطبقهبنديشده (genai.mil) كه براي بيش از سه ميليون كارمند وزارت دفاع راهاندازي شده است، استفاده كند.
