شماره امروز: ۵۴۷

یشرفت‌های تکنولوژیک، استنباط داده و حریم خصوصی

| کدخبر: 144473 | |

شاید بین اطرافیانتان کسانی را دیده باشید که خیلی مراقب‌اند هیچ ردّی از اطلاعات شخصی خود روی اینترنت نگذارند.

آنها، خیلی بیشتر از چیزی که فکر می‌کنید درباره شما می‌دانند

مترجم:   علیرضا شفیعی‌نسب |

شاید بین اطرافیانتان کسانی را دیده باشید که خیلی مراقب‌اند هیچ ردّی از اطلاعات شخصی خود روی اینترنت نگذارند. این افراد سمت شبکه‌های اجتماعی نمی‌روند یا، اگر بروند، محتاطانه مطلب پست می‌کنند. آنها هیچ اطلاعاتی در مورد زندگی شخصی‌شان به اشتراک نمی‌گذارند و کل اینستاگرام را هم اگر بگردید هیچ عکسی از آنها پیدا نمی‌کنید. بعضی‌ها فکر می‌کنند با این کارها از حریم خصوصی خود محافظت می‌کنند، اما اشتباه می‌کنند. فیس‌بوک و اینستاگرام هیچ نیازی به این کارها ندارند. آنها حتی ازطریق شماره تلفن شما می‌توانند بسیاری از کارهای پنهانی یا خصوصیات اخلاقی شما را کشف کنند. این نگرانتان نمی‌کند؟

زینب توفکچی|نیویورک‌تایمز|

افرادی که نگران حریم شخصی هستند، معمولاً می‌کوشند در فضای مجازی «مراقب» باشند. این افراد سمت شبکه‌های اجتماعی نمی‌روند یا، اگر بروند، محتاطانه مطلب پست می‌کنند. آنها هیچ اطلاعاتی در مورد باورهای دینی، زندگی شخصی، وضعیت سلامت و دیدگاه‌های سیاسی خود به اشتراک نمی‌گذارند و می‌پندارند با این کار از حریم شخصی خود محافظت می‌نمایند. اما اشتباه می‌کنند. با توجه به پیشرفت‌های تکنولوژیک و حجم عظیم داده‌ای که اکنون در مورد میلیون‌ها فرد دیگر در دسترس است، دیگر احتیاط برای محافظت از حریم شخصی کافی نیست. الگوریتم‌های کامپیوتری و تحلیل شبکه‌ها امروزه می‌تواند با دقتی نسبتاً بالا طیف وسیعی از اطلاعات را در مورد شما استنباط کند که شاید هرگز فاش نکرده باشید، مواردی نظیر حس‌وحال، باورهای سیاسی، گرایش‌ها و وضعیت سلامتتان.

دیگر چیزی تحت عنوان «خروج اختیاری» فرد از دنیایی که در آن حریم شخصی مختل شده است وجود ندارد.

ایده کلی «استنباط داده» چیز جدیدی نیست. مدت‌هاست که خرده‌فروشان، سازمان‌های خیریه و سیاست‌مداران لیست‌های مشترکین مطبوعات را می‌خرند چون اطلاعات مفیدی در مورد دیدگاه‌های مردم در اختیارشان می‌گذارد. مثلاً کسی که مشترک وال‌استریت‌ژورنال است احتمال بیشتری دارد حامی جمهوری‌خواهان باشد تا کسی که مشترک نیشن یا موارد مشابه است.

اما تکنولوژی امروزی در سطحی بسیار بالاتر عمل می‌کند. به مثالی از فیس‌بوک دقت کنید. در سال ۲۰۱۷ روزنامه آستریلین مقاله‌ای منتشر کرد بر مبنای سندی لورفته از فیس بوک. این سند افشا می‌کند که شرکت فیسبوک به تبلیغ‌کنندگان گفته که می‌تواند پیش‌بینی کند کاربران جوان ازجمله نوجوانان چه زمان احساس «ناامنی» و «بی‌ارزشی» می‌کنند یا چه زمانی نیازمند

 «تقویت عزت‌نفس» هستند. فیس‌بوک ظاهراً می‌توانسته با نظارت بر عکس‌ها، پست‌ها و دیگر داده‌های رسانه اجتماعی این اطلاعات را استنباط کند.

البته فیس‌بوک این را انکار کرد که اجازه می‌دهد تبلیغ‌کنندگان بر اساس این خصایص افراد را هدف قرار دهند، اما به احتمال قریب‌به‌یقین توانایی این کار را دارد. اتفاقاً پژوهشگران دانشگاهی هم سال گذشته نشان دادند که می‌توانند با تحلیل داده‌های شبکه اجتماعی کاربران فیس‌بوک افسردگی آنها را پیش‌بینی کنند؛ بماند که آنها نسبت به شرکت فیس‌بوک به داده‌های خیلی کمتری دسترسی داشتند. حتی اگر فیس‌بوک امروزه علناً برای این توانایی خود تبلیغ نمی‌کند که می‌تواند اطلاعات مربوط به سلامت ذهنی حال یا آینده‌تان را از روی فعالیتتان در شبکه اجتماعی به دست آورد، همین که این شرکت (و دیگر کنش‌گران نامرئی‌تر) می‌توانند چنین کنند باید برایتان نگران‌کننده باشد. باید تأکید کرد که استنباط‌های محاسباتی امروزی صرفاً به این کفایت نمی‌کند که کاربران فیس‌بوک جملاتی مثل «افسرده‌ام» یا «حالم خیلی بد است» را پست کرده باشند. این تکنولوژی بسیار از این حرف‌ها پیچیده‌تر است: حجم عظیمی از داده‌ها برای الگوریتم‌های یادگیری ماشینی فراهم می‌شود و خودِ برنامه کامپیوتری می‌تواند دسته‌بندی کند که چه کسی بیشتر در معرض افسردگی است. به نمونه دیگری دقت کنید. در سال ۲۰۱۷، پژوهشگران دانشگاهی با دسترسی به داده‌های بیش از ۴۰هزار عکس اینستاگرامی و با استفاده از ابزار یادگیری ماشینی توانستند نشانه‌های افسردگی را در ۱۶۶ کاربر اینستاگرام بطور دقیق شناسایی کنند. مشخص شد که مدل‌های کامپیوتری آنها بهتر می‌توانند افسردگی را پیش‌بینی کنند تا انسان‌هایی که از آنها خواسته شده بود عکس‌ها را به عنوان شاد، غمگین و ... رتبه‌بندی کنند. استنباط محاسباتی اگر برای اهداف شرافتمندانه استفاده شود می‌تواند چیز خارق‌العاده‌ای باشد. پیش‌بینی افسردگی قبل از بروز سمپتوم‌های کلینیکی موهبتی برای سلامت عمومی خواهد بود، و به همین خاطر است که دانشگاهی‌ها روی این ابزار پژوهش می‌کنند؛ آنها رویای تشخیص زودهنگام و پیشگیری را دارند.

اما این ابزارْ نگران‌کننده هم هستند. افرادی که در اینستاگرام عکس پست می‌کنند به‌ندرت خبر دارند که شاید وضعیت سلامت ذهنی‌شان را در اختیار تمام افرادِ مجهز به قدرت محاسباتی کافی قرار داده‌اند.

استنباط محاسباتی همچنین می‌تواند ابزاری برای کنترل اجتماعی باشد. دولت چین با جمع‌آوری داده‌های زیست‌سنجشی شهروندانش سعی می‌کند، به‌کمک کلان‌داده‌ها و هوش مصنوعی، «تهدیدهای» متوجه حکومت کمونیستی‌اش- ازجمله قومیتِ عمدتاً مسلمانِ اویغور در این کشور- را شناسایی نماید.

چنین ابزاری همین‌حالا هم برای استفاده در استخدام کارمند، شناسایی حال‌وهوای خریداران و پیش‌بینی رفتار مجرمانه تبلیغ می‌شوند. اگر اینها درست مدیریت نشود، در آینده نزدیک ممکن است استخدام، اخراج، قبولی یا رد بیمه، پذیرش و مردودی دانشگاه، اسکان اجاره‌ای و تمدید یا رد اعتبار همگی بر اساس اطلاعاتی انجام گیرد که از ما استنباط شده است. حتی وقتی استنباط‌ها درست باشد، باز هم قضیه نگران‌کننده است. اما باتوجه به اینکه استنباط محاسباتی یک تکنیک آماری است، خیلی وقت‌ها اشتباه هم از آن سر می‌زند، و مشخص‌کردن منبع اشتباه کاری دشوار و چه‌بسا غیرممکن است، چون این الگوریتم‌ها هیچ اطلاعاتی از نحوه عملکرد خود بروز نمی‌دهند. چه می‌شود وقتی کسی، به‌خاطر استنباطی نامطمئن، از شغلی محروم شود؟

نمونه مشکل‌ساز دیگری از استنباط مربوط به شماره تلفن است. شماره تلفنْ روزبه‌روز دارد به شناساگری تبدیل می‌شود که عملکردی شبیه به کد ملی دارد، چون مخصوص خودتان است. حتی اگر سمت فیس بوک و دیگر رسانه‌های اجتماعی نروید، بازهم شماره تلفن شما بی‌شک در فهرست مخاطبین بسیاری از افراد دیگر است. اگر آنها از فیس‌بوک (یا اینستاگرام یا واتس آپ) استفاده می‌کنند، قبلاً از آنها خواسته شده تا اطلاعات مخاطبانشان آپلود شود تا به یافتن «دوستانشان» کمک کند، و بسیاری از افراد این درخواست را تأیید می‌نمایند. وقتی شماره شما در چند آپلود ظاهر شود، فیس‌بوک می‌تواند شما را در یک شبکه اجتماعی جاگذاری کند و این امر باعث می‌شود بتواند چیزهایی را در مورد شما استنباط کند، چون ما معمولاً شبیه به افراد درون مجموعه اجتماعی‌مان هستیم (فیس‌بوک حتی پروفایل «سایه» هم برای افراد غیرکاربر نگه می‌دارد و پیکسل‌های ردیابی۲ را به‌کار می‌گیرد که در سرتاسر وب- و نه‌فقط در فیس بوک- قرار دارند. این پیکسل‌ها اطلاعاتی را در مورد رفتارتان به شرکت منتقل می‌کنند) . سال گذشته، تحقیقی به رهبری سناتور

ران وایدن، دموکرات اهل اورگن، نشان داد که «ورایزن»، «تی‌موبایل»، «اسپرینت»، و «ای‌تی‌اندتی» موقعیت مکانی زنده افراد را می‌فروشند. گزارشی تحقیقی که در سال گذشته در نیویورک‌تایمز منتشر شد و نیز پژوهش جداگانه‌ای از سوی تحلیلگر امنیت، ویل استرافاش، هردو نشان می‌داد که برنامه‌های هواشناسی نظیر «ودر چنل»، «اکیو ودر» و «ودرباگ» داده‌های مربوط به موقعیت مکانی کاربرانشان را می‌فروشند. فایده این‌دست داده‌ها تنها برای ردیابی شما نیست، بلکه چیزهایی را نیز در مورد شما استنباط می‌کنند. در یک کلینیک سرطان چه می‌کردید؟ برای چه ساعت ۵ صبح خانه زنی را ترک کردید که همسرتان نیست؟

کشمیر هیل، ژورنالیستِ گروه رسانه‌ای گیزمودو، از مواردی گزارش تهیه کرده که فیس‌بوک به بیماران یک روانپزشک پیشنهاد داده که «دوست فیس‌بوکی» بالقوه هستند، یا پیشنهاد کرده افراد با کسی «دوست» شوند که قبلاً همسرشان با او رابطه داشته، یا مثلاً هویت واقعی روسپیان را به مشتریانشان فاش کرده است. ما نمی‌خواهیم شرکت‌ها (یا دولت‌ها) چنین ارتباطاتی را برقرار کنند، چه رسد به اینکه از آن برای «رشد» پلتفرم خود استفاده نمایند.

چاره چیست؟ طراحی گوشی‌ها و ابزارهای دیگری که حفاظت قوی‌تری از حریم شخصی دارند می‌تواند نقطه شروع باشد. مقررات دولتی مربوط به جمع‌آوری و جریانِ داده نیز به کندکردن این فرآیند کمک می‌کند. اما این راهکار کامل نیست. ما همچنین باید قوانینی وضع کنیم که استفاده از استنباط محاسباتی را مستقیماً مدیریت نماید: چه چیز را اجازه می‌دهیم مورد استنباط قرار گیرد؟ تحت چه شرایطی؟ چه مسوولیتی در قبال آن و افشای آن وجود دارد؟ چه کنترلی بر آن صورت می‌گیرد و مجازات سوءاستفاده از آن چیست؟

تا وقتی پاسخی مناسب به این سوالات نداریم، می‌توان انتظار داشت دیگران اطلاعات بیشتر و بیشتری در مورد ما به دست آورند، حال هرچه‌قدر هم که محتاط باشیم.

 

 

اخبار مرتبط

ارسال نظر

نظر کاربران