نقش فناوري در دفاع از «حقيقت»؛ هوش‌مصنوعي چگونه راستي‌آزمايي مي‌كند

۱۴۰۴/۰۴/۰۹ - ۰۱:۵۴:۴۲
|
کد خبر: ۳۴۷۳۰۵

در دنياي امروز كه اخبار در كسري از ثانيه در سراسر جهان گردش مي‌يابند، فناوري‌هاي نوين و به‌طور خاص هوش مصنوعي، به عنوان پاسخي فناورانه به اين چالش مطرح مي‌شوند.

در دنياي امروز كه اخبار در كسري از ثانيه در سراسر جهان گردش مي‌يابند، فناوري‌هاي نوين و به‌طور خاص هوش مصنوعي، به عنوان پاسخي فناورانه به اين چالش مطرح مي‌شوند. به گزارش مهر، سرعت گردش اطلاعات به‌ويژه در بستر شبكه‌هاي اجتماعي، موجب شده كه انتشار شايعه يا اخبار جعلي بتواند در مدت‌زماني بسيار كوتاه، آثار جدي اجتماعي، سياسي يا امنيتي به‌جا بگذارد. اين شرايط به ويژه در مواقع بروز بحران‌هاي سياسي و اجتماعي چون تجاوز رژيم اشغالگر قدس به زيرساخت‌هاي حياتي و مناطق غيرنظامي جمهوري اسلامي ايران، براي مخاطبان و كاربران اهميتي دوچندان مي‌يابد. در اين ميان، فناوري‌هاي نوين و به‌طور خاص هوش مصنوعي، به عنوان پاسخي فناورانه به اين چالش مطرح مي‌شوند. هوش مصنوعي اكنون ديگر صرفاً يك ابزار تحقيقاتي يا دانشگاهي نيست، بلكه در خط مقدم مقابله با موج‌هاي انتشار گسترده اطلاعات نادرست ايستاده است. اين فناوري با توانايي تحليل خودكار حجم عظيمي از داده‌ها، شناسايي الگوهاي زباني، تشخيص چهره و صدا و مقايسه سريع داده‌ها با پايگاه‌هاي اطلاعاتي معتبر، اين امكان را فراهم مي‌آورد كه راستي‌آزمايي اخبار با سرعت و دقتي فراتر از توان انسان انجام شود. مهر در اين نوشتار كوتاه، ضمن بررسي عملكرد و قابليت‌هاي فعلي هوش مصنوعي در مقابله با پديده اخبار جعلي، به برخي از تجربه‌هاي موفق بين‌المللي در اين زمينه اشاره خواهد كرد و در ادامه به بررسي ضرورت پياده‌سازي كاربردهاي فناوري مذكور در حوزه مقابله با اخبار جعلي مي‌پردازد.

  نقش چندوجهي هوش مصنوعي  در راستي‌آزمايي محتوا

به عقيده كارشناسان، هوش مصنوعي با بهره‌گيري از الگوريتم‌هاي پردازش زبان طبيعي، يادگيري ماشين و تحليل چندرسانه‌اي، چهار نقش اساسي در فرآيند راستي‌آزمايي ايفا مي‌كند: استخراج هوشمند اطلاعات مشكوك از حجم عظيم داده‌ها؛ تحليل محتوايي و ارزيابي اعتبار ادعاها و منابع؛ مقايسه خودكار داده‌ها با پايگاه‌هاي معتبر و تحليل آنها و رصد جريان‌هاي هماهنگ اطلاعات نادرست. اين سامانه‌ها با بررسي ساختار زباني، اعتبار نويسندگان، سوابق منابع خبري و حتي ويژگي‌هاي صوتي و تصويري محتوا، الگوهاي ناهنجار و نشانه‌هاي دروغ‌پردازي را شناسايي كرده و هشدارهاي اوليه براي بررسي انساني صادر مي‌كنند. تحليل هم‌زمان متن، صوت و تصوير و تطبيق ميان‌زباني، به‌ويژه در مقابله با عمليات رواني فرامرزي، نقشي حياتي دارد.

 تجربه‌هاي بين‌المللي از پيوند فناوري  و حقيقت‌سنجي

برنامه‌هايي چون پروژه «AI۴TRUST» كه با حمايت اتحاديه اروپا توسعه يافته، نمونه‌اي پيشرو در بهره‌گيري تركيبي از هوش مصنوعي و تحليل انساني محسوب مي‌شود. اين سامانه شبكه‌هاي اجتماعي را به‌صورت لحظه‌اي پايش مي‌كند و با تحليل محتواي چندزبانه، موارد داراي ريسك بالاي اطلاعات نادرست را علامت‌گذاري مي‌نمايد. خروجي اين تحليل‌ها در قالب شاخص‌هايي همچون «ريسك اپيدمي اطلاعاتي»، ابزار تصميم‌گيري مفيدي براي روزنامه‌نگاران و سياست‌گذاران فراهم مي‌سازد. همچنين در بريتانيا، سازمان «Full Fact» از هوش مصنوعي براي پوشش وسيع‌تر منابع خبري، از جمله رسانه‌هاي آنلاين، شبكه‌هاي اجتماعي و برنامه‌هاي تلويزيوني بهره مي‌برد. اين فناوري به تيم‌هاي حقيقت‌سنج كمك مي‌كند تا ادعاهاي مهم، پرتكرار و قابل بررسي را در اولويت قرار دهند. با اين حال، تصميم‌گيري نهايي همچنان بر عهده تحليل‌گران انساني باقي مي‌ماند.

 از تشخيص دروغ تا مداخله زودهنگام

يافته‌هاي علمي جديد پژوهشي پيشگامانه در دانشگاه كاليفرنيا سن‌ديگو نشان داده است كه الگوريتم‌هاي يادگيري ماشين در تشخيص رفتار فريبكارانه به‌مراتب دقيق‌تر و قابل‌اعتمادتر از انسان‌ها عمل مي‌كنند. اين مطالعه با محوريت تحليل برنامه تلويزيوني «Golden Balls»، يك شوي رقابتي بريتانيايي با موقعيت‌هاي استراتژيك فريب و همكاري، صورت گرفته است. پژوهشگران دريافتند كه الگوريتم‌هاي طراحي‌شده با دقتي معادل ۷۴ درصد مي‌توانند نيت واقعي شركت‌كنندگان را در موقعيت‌هاي كليدي تشخيص دهند، در حالي كه بيش از ۶۰۰ شركت‌كننده انساني در اين آزمايش، تنها به دقتي بين ۵۱ تا ۵۳ درصد دست يافتند. اين يافته‌ها حاكي از آن است كه ماشين‌ها مي‌توانند الگوهاي رفتاري، لحن كلام، ميميك صورت و حتي شاخص‌هاي عاطفي مانند شادي يا اضطراب را به‌صورت دقيق‌تر تحليل كرده و ارتباط آنها با دروغ‌گويي يا صداقت را شناسايي نمايند. به گفته مارتا سرا گارسيا، نويسنده اصلي اين پژوهش، الگوريتم‌ها قادرند نشانه‌هايي را كه براي انسان‌ها غيرقابل‌تشخيص هستند، به عنوان نشانه‌هاي رفتاري فريب استخراج كنند. همچنين، نتايج آزمايش‌ها نشان داد كه زمان‌بندي ارايه هشدار الگوريتمي نقش تعيين‌كننده‌اي در اعتماد كاربران دارد. به‌طور خاص، زماني‌كه كاربران پيش از مشاهده محتوا با هشدار احتمالي دروغگويي مواجه مي‌شوند، تحليل‌گري آنها تقويت شده و احتمال پذيرش بي‌قيد و شرط محتواي گمراه‌كننده كاهش مي‌يابد. اين يافته اهميت بالايي براي پلتفرم‌هاي ديجيتال دارد. پلتفرم‌هايي نظير يوتيوب، تيك‌تاك و اينستاگرام كه به‌صورت لحظه‌اي حجم انبوهي از محتواي توليدشده توسط كاربران را ميزباني مي‌كنند، مي‌توانند با طراحي نظام‌هاي هشدار پيشگيرانه، از گسترش اطلاعات نادرست پيش از تثبيت در فضاي عمومي جلوگيري كنند.

 راستي‌آزمايي ديجيتال؛ زيرساختي  براي امنيت شناختي

در عصري كه جنگ‌هاي شناختي جايگزين جنگ‌هاي متعارف شده‌اند، تقويت زيرساخت‌هاي پدافند غيرعامل شناختي اهميت مضاعفي يافته است. در چنين شرايطي، هوش مصنوعي مي‌تواند نقش يك سپر ديجيتال را در دفاع از امنيت ملي ايفا كند و از ساختارهاي اجتماعي و رواني كشور در برابر تهاجم اطلاعات نادرست محافظت نمايد. از همين روي، توسعه سامانه‌هاي بومي با توانايي تحليل محتوا به زبان‌هاي فارسي، عربي، عبري و انگليسي و اتصال آنها به مراكز فرماندهي رسانه‌اي و امنيتي، از الزامات راهبردي دفاع شناختي جمهوري اسلامي ايران محسوب مي‌شود.

  پيوند فناوري، سياست و آگاهي عمومي

هوش مصنوعي، در صورتي كه با رعايت اصول اخلاقي، شفافيت الگوريتمي و احترام به حريم خصوصي به‌كار گرفته شود، مي‌تواند به يكي از مهم‌ترين ابزارهاي مقابله با اخبار جعلي و اطلاعات نادرست تبديل شود؛ اما نبايد فراموش كرد كه اين فناوري، به‌تنهايي قادر به حل بحران اطلاعات نخواهد بود.