نقش فناوري در دفاع از «حقيقت»؛ هوشمصنوعي چگونه راستيآزمايي ميكند
در دنياي امروز كه اخبار در كسري از ثانيه در سراسر جهان گردش مييابند، فناوريهاي نوين و بهطور خاص هوش مصنوعي، به عنوان پاسخي فناورانه به اين چالش مطرح ميشوند.
در دنياي امروز كه اخبار در كسري از ثانيه در سراسر جهان گردش مييابند، فناوريهاي نوين و بهطور خاص هوش مصنوعي، به عنوان پاسخي فناورانه به اين چالش مطرح ميشوند. به گزارش مهر، سرعت گردش اطلاعات بهويژه در بستر شبكههاي اجتماعي، موجب شده كه انتشار شايعه يا اخبار جعلي بتواند در مدتزماني بسيار كوتاه، آثار جدي اجتماعي، سياسي يا امنيتي بهجا بگذارد. اين شرايط به ويژه در مواقع بروز بحرانهاي سياسي و اجتماعي چون تجاوز رژيم اشغالگر قدس به زيرساختهاي حياتي و مناطق غيرنظامي جمهوري اسلامي ايران، براي مخاطبان و كاربران اهميتي دوچندان مييابد. در اين ميان، فناوريهاي نوين و بهطور خاص هوش مصنوعي، به عنوان پاسخي فناورانه به اين چالش مطرح ميشوند. هوش مصنوعي اكنون ديگر صرفاً يك ابزار تحقيقاتي يا دانشگاهي نيست، بلكه در خط مقدم مقابله با موجهاي انتشار گسترده اطلاعات نادرست ايستاده است. اين فناوري با توانايي تحليل خودكار حجم عظيمي از دادهها، شناسايي الگوهاي زباني، تشخيص چهره و صدا و مقايسه سريع دادهها با پايگاههاي اطلاعاتي معتبر، اين امكان را فراهم ميآورد كه راستيآزمايي اخبار با سرعت و دقتي فراتر از توان انسان انجام شود. مهر در اين نوشتار كوتاه، ضمن بررسي عملكرد و قابليتهاي فعلي هوش مصنوعي در مقابله با پديده اخبار جعلي، به برخي از تجربههاي موفق بينالمللي در اين زمينه اشاره خواهد كرد و در ادامه به بررسي ضرورت پيادهسازي كاربردهاي فناوري مذكور در حوزه مقابله با اخبار جعلي ميپردازد.
نقش چندوجهي هوش مصنوعي در راستيآزمايي محتوا
به عقيده كارشناسان، هوش مصنوعي با بهرهگيري از الگوريتمهاي پردازش زبان طبيعي، يادگيري ماشين و تحليل چندرسانهاي، چهار نقش اساسي در فرآيند راستيآزمايي ايفا ميكند: استخراج هوشمند اطلاعات مشكوك از حجم عظيم دادهها؛ تحليل محتوايي و ارزيابي اعتبار ادعاها و منابع؛ مقايسه خودكار دادهها با پايگاههاي معتبر و تحليل آنها و رصد جريانهاي هماهنگ اطلاعات نادرست. اين سامانهها با بررسي ساختار زباني، اعتبار نويسندگان، سوابق منابع خبري و حتي ويژگيهاي صوتي و تصويري محتوا، الگوهاي ناهنجار و نشانههاي دروغپردازي را شناسايي كرده و هشدارهاي اوليه براي بررسي انساني صادر ميكنند. تحليل همزمان متن، صوت و تصوير و تطبيق ميانزباني، بهويژه در مقابله با عمليات رواني فرامرزي، نقشي حياتي دارد.
تجربههاي بينالمللي از پيوند فناوري و حقيقتسنجي
برنامههايي چون پروژه «AI۴TRUST» كه با حمايت اتحاديه اروپا توسعه يافته، نمونهاي پيشرو در بهرهگيري تركيبي از هوش مصنوعي و تحليل انساني محسوب ميشود. اين سامانه شبكههاي اجتماعي را بهصورت لحظهاي پايش ميكند و با تحليل محتواي چندزبانه، موارد داراي ريسك بالاي اطلاعات نادرست را علامتگذاري مينمايد. خروجي اين تحليلها در قالب شاخصهايي همچون «ريسك اپيدمي اطلاعاتي»، ابزار تصميمگيري مفيدي براي روزنامهنگاران و سياستگذاران فراهم ميسازد. همچنين در بريتانيا، سازمان «Full Fact» از هوش مصنوعي براي پوشش وسيعتر منابع خبري، از جمله رسانههاي آنلاين، شبكههاي اجتماعي و برنامههاي تلويزيوني بهره ميبرد. اين فناوري به تيمهاي حقيقتسنج كمك ميكند تا ادعاهاي مهم، پرتكرار و قابل بررسي را در اولويت قرار دهند. با اين حال، تصميمگيري نهايي همچنان بر عهده تحليلگران انساني باقي ميماند.
از تشخيص دروغ تا مداخله زودهنگام
يافتههاي علمي جديد پژوهشي پيشگامانه در دانشگاه كاليفرنيا سنديگو نشان داده است كه الگوريتمهاي يادگيري ماشين در تشخيص رفتار فريبكارانه بهمراتب دقيقتر و قابلاعتمادتر از انسانها عمل ميكنند. اين مطالعه با محوريت تحليل برنامه تلويزيوني «Golden Balls»، يك شوي رقابتي بريتانيايي با موقعيتهاي استراتژيك فريب و همكاري، صورت گرفته است. پژوهشگران دريافتند كه الگوريتمهاي طراحيشده با دقتي معادل ۷۴ درصد ميتوانند نيت واقعي شركتكنندگان را در موقعيتهاي كليدي تشخيص دهند، در حالي كه بيش از ۶۰۰ شركتكننده انساني در اين آزمايش، تنها به دقتي بين ۵۱ تا ۵۳ درصد دست يافتند. اين يافتهها حاكي از آن است كه ماشينها ميتوانند الگوهاي رفتاري، لحن كلام، ميميك صورت و حتي شاخصهاي عاطفي مانند شادي يا اضطراب را بهصورت دقيقتر تحليل كرده و ارتباط آنها با دروغگويي يا صداقت را شناسايي نمايند. به گفته مارتا سرا گارسيا، نويسنده اصلي اين پژوهش، الگوريتمها قادرند نشانههايي را كه براي انسانها غيرقابلتشخيص هستند، به عنوان نشانههاي رفتاري فريب استخراج كنند. همچنين، نتايج آزمايشها نشان داد كه زمانبندي ارايه هشدار الگوريتمي نقش تعيينكنندهاي در اعتماد كاربران دارد. بهطور خاص، زمانيكه كاربران پيش از مشاهده محتوا با هشدار احتمالي دروغگويي مواجه ميشوند، تحليلگري آنها تقويت شده و احتمال پذيرش بيقيد و شرط محتواي گمراهكننده كاهش مييابد. اين يافته اهميت بالايي براي پلتفرمهاي ديجيتال دارد. پلتفرمهايي نظير يوتيوب، تيكتاك و اينستاگرام كه بهصورت لحظهاي حجم انبوهي از محتواي توليدشده توسط كاربران را ميزباني ميكنند، ميتوانند با طراحي نظامهاي هشدار پيشگيرانه، از گسترش اطلاعات نادرست پيش از تثبيت در فضاي عمومي جلوگيري كنند.
راستيآزمايي ديجيتال؛ زيرساختي براي امنيت شناختي
در عصري كه جنگهاي شناختي جايگزين جنگهاي متعارف شدهاند، تقويت زيرساختهاي پدافند غيرعامل شناختي اهميت مضاعفي يافته است. در چنين شرايطي، هوش مصنوعي ميتواند نقش يك سپر ديجيتال را در دفاع از امنيت ملي ايفا كند و از ساختارهاي اجتماعي و رواني كشور در برابر تهاجم اطلاعات نادرست محافظت نمايد. از همين روي، توسعه سامانههاي بومي با توانايي تحليل محتوا به زبانهاي فارسي، عربي، عبري و انگليسي و اتصال آنها به مراكز فرماندهي رسانهاي و امنيتي، از الزامات راهبردي دفاع شناختي جمهوري اسلامي ايران محسوب ميشود.
پيوند فناوري، سياست و آگاهي عمومي
هوش مصنوعي، در صورتي كه با رعايت اصول اخلاقي، شفافيت الگوريتمي و احترام به حريم خصوصي بهكار گرفته شود، ميتواند به يكي از مهمترين ابزارهاي مقابله با اخبار جعلي و اطلاعات نادرست تبديل شود؛ اما نبايد فراموش كرد كه اين فناوري، بهتنهايي قادر به حل بحران اطلاعات نخواهد بود.