آیا در جهانِ بانک‌های داده، هنوز حریم خصوصی یا زندگیِ آزادانه معنایی دارد؟


فرض کنید در اینترنت به صفحه‌ای برمی‌خورید که می‌گوید با تحلیلِ امضایتان رازهایی را دربارۀ شخصیت‌تان می‌گوید. موضوع برایتان جالب می‌شود و نمونه‌ای از امضایتان را می‌فرستید. سایت از روی آن امضا، در کمتر از یک ساعت، نام واقعی، محل سکونت، میزان تحصیلات، درآمد و ذخیرۀ بانکی‌، سابقۀ بیماری‌ها، نتایج آزمایش خون، ترکیب دی.‌ان.ای، تخلفات رانندگی، سوابق ورزشی، شرح مسافرت‌ها و هر کار دیگری که در زندگی کرده‌اید دست می‌یابند. خب، حالا چه رازهایی را می‌خواهید بشنوید؟


نیویورک ریویو آو بوکز — چند ماه پیش، واشنگتن پست گزارش داد که فیس‌بوک ۹۸ نکتۀ اطلاعاتی را از هریک از حدوداً دومیلیارد کاربرش جمع‌آوری می‌کند. از این ۹۸ مورد می‌توان به چنین مواردی اشاره کرد: قومیت، درآمد، ثروت خالص، قیمت خانه، مادربودن یا نبودن، به‌اصطلاح «مامان‌فوتبالی۱» بودن یا نبودن، وضعیت تأهل، تعداد خطوط اعتباری، علاقه‌مندی به رمضان، تاریخ خرید ماشین و... .

فیس‌بوک این تکه‌های زندگی شخصی و هویت فرد را چگونه و از کجا به دست می‌آورد؟ اولاً از اطلاعاتی که کاربران به‌میل خودشان وارد می‌کنند، نظیر وضعیت رابطه، سن و وابستگی دانشگاهی؛ ثانیاً از پست‌های فیس‌بوکیِ مربوط به عکس‌های تعطیلات، عکس‌های بچه‌ها و عکس‌های فارغ‌التحصیلی. البته لزومی ندارد که حتماً عکس‌هایی باشد که خودتان پست می‌کنید: نرم‌افزارِ تشخیصِ چهرۀ فیس‌بوکْ شما را از میان جمعیت تشخیص می‌دهد. فیس‌بوک همچنین کاربران را در سرتاسر اینترنت دنبال کرده و، با این تعقیب، گزینۀ «عدم‌ردیابیِ» آن‌ها را نادیده می‌گیرد. مثلاً هربار که کاربری از یک وب‌سایتِ دارای دکمۀ «لایک» فیس‌بوک بازدید می‌کند (چیزی که اکثر وب‌سایت‌ها دارند)، فیس‌بوک از این قضیه خبردار می‌شود.

این شرکت همچنین اطلاعات شخصی را از پنج‌هزار دلالِ اطلاعات در سرتاسر دنیا می‌خرد، کسانی که اطلاعات را از کارت‌های وفاداری فروشگاه‌ها، ضمانت‌نامه‌ها، لیست فروش داروخانه‌ها، رسیدها و حدود ده‌میلیون مجموعه‌دادۀ عمومی و آمادۀ استخراج به دست می‌آورند. شهرداری‌ها نیز اطلاعات می‌فروشند، مثلاً ثبت‌نام رأی‌دهندگان، اطلاعات وسائل نقلیۀ موتوری، اعلامیه‌های فوت، اجرائیه‌های سند رهنی، ثبت بنگاه‌ها و بسیاری موارد دیگر. از لحاظ نظری، تمام این نقاطِ اطلاعاتی را فیس‌بوک به این دلیل جمع‌آوری می‌کند که، با تبلیغاتی تنظیم‌شده، مایحتاجِ ما را به ما بفروشد. اما درواقع فیس‌بوکْ این اطلاعات را به تبلیغ‌کنندگان می‌فروشد، صرفاً به همین دلیل که می‌تواند پول زیادی از این راه به دست بیاورد.

مدتی قبل، توجه عمیقی به سازوکارهای فیس‌بوک کردم تا ببینم با استفاده از کدام اطلاعات می‌خواهد تبلیغات را متناسب با من تخصصی کند. این مجموعۀ اولویت‌ها و این الگوریتم، یعنی مجموعه‌دستوراتی جهت اجرای یک عملیات، متفاوت با آنی است که فیس‌بوک برای تعیین و انتخاب مطالب جهت نمایش روی خبرنامۀ من استفاده می‌کند. خبرنامه همان مجموعۀ همواره‌ متغیر از عکس‌ها و پست‌های دوستان فیس‌بوکی و وب‌سایت‌های «لایک‌شده» است. این اولویت‌های تبلیغیْ برگ برندۀ قلمرو فیس‌بوک هستند؛ این شرکت فقط در سه‌ ماهۀ سوم سال ۲۰۱۶ برابر با ۲.۳میلیارد دلار درآمد داشت، رقمی که سال گذشته و در همان سه ماه نهصدمیلیون دلار بود.

این هم برخی چیزهایی که، مطابق با فیس‌بوک، درمورد خودم کشف کردم:

براساس آنچه، به‌گفتۀ فیس‌بوک، در این وب‌سایت انجام می‌دهم، به موضوعات «مزرعه، پول، حزب جمهوری‌خواه، خوش‌بختی، شیرینیِ آدامسی و خدمۀ پرواز» علاقه دارم. براساس تبلیغاتی که، به‌اعتقاد فیس‌بوک، در طول اینترنت‌گردی‌هایم بالاخره یک‌جا به آن‌ها نگاه کرده‌ام، من به ام.‌آر.آی، مستند «غار رؤیاهای فراموش‌شده» و فیلم‌های هیجانی علاقه دارم. فیس‌بوک همچنین معتقد است که من صفحات مخصوص تیرانوسوروس، پافی امی‌یومی، خمیر کلوچه و کشتی‌گیری به‌نام «اج» را لایک کرده‌ام.

اما

هربار که کاربری از یک وب‌سایتِ دارای دکمۀ «لایک» فیس‌بوک بازدید می‌کند (چیزی که اکثر وب‌سایت‌ها دارند)، فیس‌بوک از این قضیه خبردار می‌شود

من هیچ‌یک از این صفحات را لایک نکرده بودم و نگاهی گذرا به صفحۀ «لایک‌شده»هایم نیز گویای همین است. تا زمان انجام این تحقیق، حتی اسم اج یا گروه دونفرۀ ژاپنیِ پافی امی‌یومی را نشنیده بودم و، باوجود بیماری گوارشیِ سلیاک، اصلاً نمی‌توانم خمیر کلوچه را دوست داشته باشم. صفحه‌ای که لایک کرده بودم صفحۀ اعجوبۀ مشت‌زنی بانوان، کلارسا شیلدز، اهل فلینت میشیگان بود که لقبش «تی رکس» است. فیس‌بوک تا همین حد توانست علاقه‌مندی‌های واقعی‌ام را با موضوعاتی تطبیق دهد که به تبلیغ‌کنندگان می‌گوید که من به آن‌ها علاقه دارم.

عجیب است؛ چون اگر فقط یک چیز باشد که فیس‌بوک مسلماً درمورد من می‌داند، صفحات فیس‌بوکی است که واقعاً لایک کرده‌ام. اما شاید اگر مرا کسی معرفی کنند که به پافی امی‌یومی با ده‌هزار هوادار علاقه دارم و نه هوادار گروه محلی داگ‌وی با کمتر از هزار هوادار، این‌طور بیشتر برای فیس‌بوک ارزشمند باشم. اما خب هرگز نمی‌شود فهمید، چون ساختار الگوریتم‌های فیس‌بوک نیز، مانند الگوریتم‌های گوگل و دیگر شرکت‌های فناوری، رازی شدیداً حفاظت‌شده است.

فیس‌بوک ظاهراً دارد دربارۀ من مرتکب اشتباهی جدی می‌شود و فرض‌های نادرستی مطرح می‌کند و البته با همین اشتباهات پول درمی‌آورد؛ اما فقط فیس‌بوک نیست که با اطلاعات خامِ خود به فرض‌هایی عجیب و شدیداً غلط می‌رسد. محققان مرکز روان‌سنجی دانشگاه کمبریج در انگلستان چیزی ساخته‌اند که به آن «موتور پیش‌بینی‌کننده» می‌گویند. این موتور مجهز به الگوریتم‌هایی است که از زیرمجموعۀ «لایک‌های» فیس‌بوکِ فرد استفاده می‌کند و «می‌توانند طیفی از متغیرها ازجمله شادی، هوش، نگرش سیاسی و... را پیش‌بینی نماید و نیز نمایه‌ای شخصیتی از پنج فاکتور اصلی ایجاد کند». این پنج فاکتور عبارت‌اند از: برون‌گرایی، خوش‌مشربی، صداقت، وجدان و روان‌رنجوری. این موارد را مثلاً استخدام‌کنندگان، برای ارزیابیِ درخواست‌دهندگان شغل، مورد استفاده قرار می‌دهند. این فاکتورها به‌اختصار اُ.سی.ای.اِی.ان نامیده می‌شوند. به‌گفتۀ محققان کمبریج، «ما همیشه به چیزهایی ورای صرفاً کلیک‌ها و لایک‌های افراد فکر می‌کنیم تا ویژگی‌های ظریفی را دریابیم که واقعاً محرک رفتارشان است». این محققان خدماتشان را با چنین وعده‌ای به شرکت‌ها می‌فروشند که امکان «ارزیابی روان‌شناختیِ لحظه‌ایِ کاربرانتان را برمبنای رفتارشان در فضای مجازی فراهم می‌کنیم، به‌طوری‌که بتوانید بازخورد لحظه‌ای و پیشنهادهایی عرضه کنید که برند شما را متمایز می‌سازد».

باوجوداین، موتور پیش‌بینی‌کننده‌شان این چیزها را درمورد من یافت: احتمالاً مرد هستم، هرچند «لایک‌کردن» صفحۀ نیویورک تایمز ریویو آو بوکز برای من امتیازی «زنانه» محسوب می‌شود؛ بیشتر محافظه‌کار هستم تا لیبرال، هرچند آشکارا در فیس‌بوک علاقه‌ام را به برنی سندرز اعلام کرده‌ام؛ بیشتر فردی متفکر هستم تا کَسی که درگیر دنیای بیرونی است، درحالی‌که صفحۀ تعدادی از گروه‌های سیاسی و فعال را «لایک» کرده‌ام؛ ظاهراً نسبت‌به ۶۲درصد از جمعیت، خون‌سردتر و آرام‌تر هستم (که قابل تردید است).

این چیزها را هم درمورد خودم پیدا کردم: نه‌فقط مرد هستم، بلکه «شش نفر از هر ده نفر با لایک‌های مشابه من هم‌جنس‌گرا هستند» که «احتمال حدوداً متوسط» به وجود می‌آورد که من نه فقط مرد بلکه مردی هم‌جنس‌گرا باشم. لایک‌هایی که مرا «کمتر هم‌جنس‌گرا» نشان می‌دهند مجلۀ تست محصول کانسیومر ریپورت۲، وبلاگ تکنولوژی گیزمودو و وب‌سایت دیگری به‌نام لایف‌هکر هستند. آن‌هایی هم که مرا «بیشتر هم‌جنس‌گرا» نشان می‌دهند نیویورک تایمز و گروه زیست‌محیطی ۳۵۰.org بودند. همچنین لایک‌هایی که باعث می‌شوند من ظاهراً «علاقۀ چندانی به سیاست» نداشته باشم نیویورک تایمز و ۳۵۰.org هستند.

چیزهای دیگری هم هست. به‌گفتۀ الگوریتم مرکز روان‌سنجی، «لایک‌های شما نشان می‌دهد که مجرد هستید و هیچ رابطه‌ای ندارید». چرا؟ چون صفحۀ ۳۵۰.org را لایک کرده‌ام، 

ساختار الگوریتم‌های فیس‌بوک نیز، مانند الگوریتم‌های گوگل و دیگر شرکت‌های فناوری، رازی شدیداً حفاظت‌شده است

مؤسسه‌ای که سی سال است با مؤسس آن رابطه دارم!

این سرگرم‌کننده است، اما درسی عملی از این نیز هست که چقدر راحت می‌توان داده‌ها را به‌غلط تفسیر نمود. ما در عصری زندگی می‌کنیم که کامپیوترهای بسیار قدرتمند می‌توانند مجموعه‌داده‌های بسیار عظیم و پراکنده را تجزیه و مرتب نمایند. این باعث می‌شود الگوها را در جاهایی ببینیم که پیش‌تر نمی‌توانستیم. این امر مثلاً برای کشف مواد مخدر مفید بوده است یا ظاهراً برای اینکه بفهمیم در افغانستان بمب‌های کنار جاده‌ای احتمالاً کجا کاشته شده‌اند. اما این موضوع همچنین ما را به این باور می‌رسانَد که تحلیل داده‌ها حقیقتی را به ما عرضه می‌کند، حقیقتی که خالی از بی‌نظمی، سوگیریِ فردی یا تحریف است.

درواقع «داده‌ای‌سازیِ۳ همه‌چیز» تقلیل‌گرایانه است. اول اینکه هرچیزی را که نمی‌تواند به‌صورت کمّی درآید از قلم می‌اندازد و، همان‌طور که کتی اونیل در کتاب پرمغز و دلهره‌آورش به‌نام سلاح‌های کشتار ریاضیاتی؛ چگونه داده‌های بزرگ نابرابری را زیاد کرده و دموکراسی را تهدید می‌کنند۴ خاطرنشان می‌کند، داده‌ای‌سازی معمولاً مبتنی بر متغیرهای نیابتی‌ای (جایگزین‌های قابل‌شمارشی) است که ارتباط چندانی با چیزهایی ندارند که قرار است بازنمایی کنند؛ به‌عنوان‌مثال اعتبار مالی در نقش متغیری نیابتی برای این احتمال عمل می‌کند که کارمند خوبی هستید، یا مثلاً آزمون‌های شخصیت «پنج فاکتور اصلی»: همچون آزمونی که مرکز روان‌سنجی کمبریج مورد استفاده قرار می‌دهد؛ هرچند بنا به گزارش اونیل «تحقیقات حاکی از آن است که آزمون‌های شخصیتْ پیش‌بینی‌کنندۀ خوبی برای عملکرد شغلی نیستند».


پیتر تیل، اولین سرمایه‌گذار بیرونی فیس‌بوک، یکی از بنیان‌گذاران پی‌پال و نیز یکی از بنیان‌گذاران پالانتیر است، شرکتی در سیلیکون‌ولی که بودجۀ آن را سی.‌آی.‌ای تأمین می‌کند. الگوریتم‌های این شرکت امکان تحلیل سریع داده‌های حجیم را فراهم می‌کند. این نتایج سپس در اختیار آژانس‌های اطلاعاتی و نیروهای مختلفِ پلیس و نیز شرکت‌ها و مؤسسات مالی قرار می‌گیرد.

تمایلی برای لحاظ‌کردن‌ این فرض وجود دارد که داده‌ها خنثی هستند و هیچ سوگیری ذاتی‌ای در آن‌ها نیست؛ مثلاً اکثر افراد معتقدند که فیس‌بوک هیچ دخالتی در محتوای «خبرنامۀ» افراد ندارد، درحالی‌که الگوریتم انحصاری فیس‌بوک دقیقاً کارش همین است. کسی (یک فرد یا گروهی از افراد) تصمیم می‌گیرد که چه اطلاعاتی باید در یک الگوریتم گنجانده شود و این اطلاعات چگونه باید سنجیده شود، درست همان‌طور که یک فرد یا گروهی از افراد تصمیم می‌گیرند چه چیزی باید در مجموعه‌داده‌ای گنجانده شود یا چه مجموعه‌داده‌هایی باید در تحلیل گنجانده شوند. آن فرد یا افراد، با تمام سوگیری‌ها و بارهای فرهنگی‌ای که کیستی ما را رقم می‌زند، به‌سراغ کار خود می‌روند. در مرکز روان‌سنجی کمبریج کسی هست که تعیین کرده افرادی که نیویورک‌ ریویو آو بوکز را می‌خوانند زنانه و کسانی که وبلاگ‌های تکنولوژی را می‌خوانند مردانه هستند. این علم نیست، بلکه گمان است و همین‌طور هم وارد الگوریتم می‌شود.

باید بفهمیم که خطاپذیریِ انسان‌ها در الگوریتم‌هایی بازتاب می‌یابد که انسان‌ها می‌نویسند. ممکن است با نگاه به چیزی مانند تحلیل روان‌سنجی کمبریج این امر بدیهی به نظر برسد، اما در برخی موارد چندان هم بدیهی به نظر نمی‌رسد، مثل الگوریتم‌هایی که مثلاً «پیش‌بینی» می‌کنند چه کسی در آینده جرمی را مرتکب می‌شود (که امروزه در بعضی حوزه‌های قضایی در تصمیمات مربوط به محاکمه و عفو مشروط گنجانده شده است) یا الگوریتم‌هایی که پیش‌بینی می‌کنند کارمندی در آینده بیش‌ازحد فضول خواهد بود و احتمالاً وفادار نمی‌مانَد یا الگوریتم‌هایی که رتبه‌های اعتباری را تعیین می‌کنند که البته، همان‌طور که پیش‌تر دیدیم، برای موارد بسیاری به‌جز رتبۀ اعتباری نیز مورد استفاده قرار می‌گیرند. فیس‌بوک 

تمایلی برای لحاظ‌کردن‌ این فرض وجود دارد که داده‌ها خنثی هستند و هیچ سوگیری ذاتی‌ای در آن‌ها نیست

در حال ایجاد الگوریتم رتبه‌سنجیِ اعتبارِ شخصی برمبنای این است که افراد در فیس‌بوک با چه کسانی ارتباط برقرار می‌کنند. این امر شاید به فقرایی کمک کند که دوستانشان در حوزۀ مالی کار می‌کنند؛ اما، برای کسانی که دوستانشان هنرمندانی فقیر هستند یا کلاً فقیر هستند، خبر خوبی نیست.

اخیراً تعدادی برنامه‌نویس تصمیم گرفتند که مسابقه‌ای آنلاین و جهانی برای انتخاب ملکۀ زیبایی برگزار کنند، مسابقه‌ای با داوری کامپیوترهای مجهز به هوش مصنوعی. تفکر زیربنایی این بود که کامپیوتر می‌تواند به عکس‌هایی نگاه کند که هزاران نفر در سرتاسر دنیا آپلود می‌کنند و، بدون هیچ سوگیری‌ای، زنانی را بیابد که تجسم زیباییِ ایدئال هستند. آیا باید تعجب کنیم که زنانی که به‌عنوان زیباترین‌ها انتخاب شدند همگی بلااستثنا سفیدپوست بودند؟ الگوریتم مورداستفادۀ کامپیوتر را برنامه‌نویسانی ساخته بودند که، با استفاده از مجموعه‌داده‌های عکس‌های زنان عمدتاً سفیدپوست، کامپیوتر را «آموزش داده بودند». در انتخاب این عکس‌ها، برنامه‌نویسانْ معیاری برای زیبایی تعیین کرده بودند که کامپیوتر براساس آن عمل می‌کرد. سام لِوین در گاردین می‌نویسد: «این گروه الگوریتم را طوری نساختند که پوست روشن را نشانۀ زیبایی بداند، اما داده‌های ورودی به‌راحتی ربات‌های داور را به این نتیجه رساند.»

لاتانیا سوئینی، استاد دانشگاه هاروارد، ۱۲۰هزار گوگل اَدوُرد (تبلیغ‌واژه‌های گوگل) را بررسی کرد که شرکت‌های ارائه‌دهندۀ گواهی عدم‌سوءپیشینه آن‌ها را خریداری می‌کنند. او دریافت که، وقتی کسی در گوگل درمورد افرادی جست‌وجو می‌کند که نام آن‌ها معمولاً سیاه به شمار می‌آید، این جست‌وجو تبلیغی را نشان می‌داد که القا می‌کرد آن فرد دارای سوءپیشینه است. مطلب دیگر درمورد انجمن اخوت «امگا سای فی»۵ بود که، در طول تاریخ، انجمنی سیاه محسوب می‌شد و وب‌سایتی تأسیس کرده بود تا صدمین سال تأسیسش را جشن بگیرد. به‌قول آریل ازراچی و موریس استراک در کتاب رقابت مجازی؛ نوید و خطرات اقتصاد الگوریتم‌محور۶، «ازجمله تبلیغاتی که این الگوریتم روی وب‌سایت ایجاد می‌کرد، تبلیغ کارت‌های اعتباری بی‌کیفیت و شدیداً موردانتقاد و نیز تبلیغاتی بود که القا می‌کرد مخاطبِ عضو دارای سابقۀ دستگیری است».

تبلیغات در مرورگر اینترنتمان یا صفحۀ فیس‌بوک یا جیمیلمان ظاهر می‌شوند و معمولاً فکر می‌کنیم دلیل وجود آن‌ها این است که شرکتی می‌خواهد چیزی به ما بفروشد که، براساس سوابقِ وب‌گردی یا محتوای ایمیل‌ها و جست‌وجوهای گوگل، فکر می‌کند ما خریدارش باشیم. شاید فکرِ این را نکنیم که دلیل وجود این تبلیغات این است که ما در محلۀ خاصی زندگی می‌کنیم یا با افراد خاصی وقت می‌گذرانیم یا اینکه، با تفسیری نقطه به ‌نقطه‌۷ از زندگی‌مان، امتیازی خاص و عجیب به ما داده‌اند. بعیدتر از همه این است که تصور کنیم دلیل دیدن این تبلیغات این است که الگوریتمی تشخیص داده که ما فردی شکست‌خورده یا هدفی آسان یا عضو نژاد یا قومیتی خاص هستیم.

همان‌طور که اونیل هم خاطرنشان می‌کند، اولویت‌ها و عادت‌ها و زیپ‌کدها و به‌روزکردن استاتوس نیز برای ایجاد تبلیغاتِ استثمارگر، مورد استفاده قرار می‌گیرند: «تبلیغاتی که مردمِ نیازمند را شناسایی می‌کنند و وعده‌های قلابی و گران‌قیمت به آن‌ها می‌فروشند.» شاید به مردمِ دارای اعتبارِ کم وام ریزپرداخت پیشنهاد شود. افرادی که شغل‌های بدون فرصت پیشرفت دارند، معمولاً با تبلیغ دوره‌های گران‌قیمت در کالج‌های انتفاعی روبه‌رو می‌شوند. به‌گفتۀ اونیل، ایدۀ زیربنایی این است که «آسیب‌پذیرترین افراد را شناسایی نموده و سپس از اطلاعات شخصی‌شان علیه خودشان استفاده کنند. این امر مستلزم این است که بفهمند کجا بیشتر از همه آسیب‌پذیرند، یعنی چیزی که ’نقطۀ درد‘ نامیده می‌شود».

سال‌هاست که می‌دانیم سایت‌های تجارتِ اینترنتی همچون آمازون، و شرکت‌های 

وقتی کسی در گوگل درمورد افرادی جست‌وجو می‌کند که نام آن‌ها معمولاً سیاه به شمار می‌آید، این جست‌وجو تبلیغی را نشان می‌داد که القا می‌کرد آن فرد دارای سوءپیشینه است

مسافرتی نظیر اُربیتز و اکسپدیا کالاهایشان را بر این اساس تعیین می‌کنند که در نظرشان که هستیم، کجا زندگی می‌کنیم، درآمدمان چقدر است و پیش‌ازاین چه خریدهایی کرده‌ایم. ازقضا معمولاً ثروتمندان پول کمتری پرداخت می‌کنند، در مقابلِ دانش‌آموزان دبیرستانی آسیایی که برای کلاس‌های تست‌زنیِ کالج پرینستون ریویو ثبت‌نام می‌کنند یا حامیان اربیتز که وارد کامپیوترهای مک می‌شوند: آن‌ها پول بیشتری پرداخت می‌کنند. این قیمت‌گذاریِ پویا درحال پیچیده‌ترشدن و حتی مبهم‌ترشدن است؛ مثلاً یکی از خرده‌فروشان بریتانیایی هم‌اکنون برچسب‌های الکترونیکی قیمت را تست می‌کند که قیمت یک کالا را بر این اساس نشان می‌دهد که چه کسی به آن نگاه می‌کند: او اطلاعات آن فرد را از روی شمارۀ تلفنش به دست می‌آورد، همان‌طور که عادت‌های پرداختیِ قبلیِ آن مشتری را نیز از روی همان شماره شناسایی می‌کند. فیس‌بوک شاید ۹۸ نقطه اطلاعات درمورد هر کاربر داشته باشد؛ اما «اکسیوم»، شرکت دلالی اطلاعات، ۱۵۰۰ مورد دارد و همۀ آن‌ها برای فروش قرار گرفته‌اند تا جمع‌آوری و تجزیه شوند و در فرمول‌هایی ورای دسترس ما قرار گیرند.

ما اطلاعاتمان را لو می‌دهیم؛ قطره‌قطره هم لو می‌دهیم و فکرش را نمی‌کنیم که دلالانِ اطلاعات آن را جمع‌آوری کرده و بفروشند، چه رسد به اینکه فکر کنیم آن را علیه خودمان مورد استفاده قرار دهند. امروزه پایگاه‌های دادۀ دی‌.ان‌.ایِ بی‌نظارتی وجود دارد که از نمونه‌های دی.‌ان.‌ای به دست می‌آیند. این اطلاعات را مردم به وب‌سایت‌های تبارشناسی تحویل می‌دهند تا اجدادشان را بیابند. این نمونه‌ها بدون مجوز یا حکم دادگاه به‌صورت آنلاین در دسترس است تا با دی.‌ان.‌ایِ یافت‌شده در صحنۀ جرم مقایسه شود. (پلیس هم در حال تکمیل پایگاه دادۀ خود از طریق نمونه‌گیری از داخل دهان در ایست‌بازرسی‌های معمولی است.) براساس برآورد بنیاد جبهۀ الکترونیک، این امر باعث می‌شود تا افراد به جرم‌هایی متهم شوند که مرتکب نشده‌اند.

یا مثلاً داده‌های ردیابان آمادگی جسمانی همچون فیت‌بیت را در نظر بگیرید. همان‌طور که در اینترسپت گزارش شده است:

در پنل کارشناسی «پیوند سلامت و آمادگی جسمانی» وابسته به اف.تی.سی، در سال ۲۰۱۳، اسکات پپت استاد حقوق دانشگاه کلورادو گفت: «براساس داده‌هایتان در فیت‌بیت، می‌توانم نقاشی دقیق و پرجزئیاتی از شما بکشم.» سپس اضافه کرد: «این داده‌ها چنان باکیفیت‌اند که با آن‌ها می‌توانم کارهایی نظیر قیمت‌گذاریِ بیمه یا ارزیابی دقیق امتیاز اعتباری‌تان را انجام دهم.»

این را نیز در نظر بگیرید که اگر یکی از تست‌های تصادفی شخصیت‌شناسی را انجام دهید که دائماً در فیس‌بوک ظاهر می‌شوند، مثل «دست‌خطتان چه چیزی درمورد شما می‌گوید؟»، به‌احتمال زیاد، شرکتی به‌نام کمبریج آنالیتیکا با استفاده از این اطلاعات هم به نمرۀ OCEAN شما و هم به نمایۀ فیس‌بوک شما ازجمله اسمتان دسترسی پیدا می‌کند. (به‌گفتۀ نیویورک تایمز، کمبریج آنالیتیکا راهنمای کمپین ترامپ بود.)

همچنین هربار که، با استفاده از سرویس اوبر، ماشینی می‌گیرید یا از نقشۀ گوگل استفاده می‌کنید (دو نمونه از برنامه‌های کاربردی تلفن همراه)، موقعیتتان را افشا می‌کنید و ردی برای دیگران (پلیس، بدون شک؛ هکرها و دیگر مجرمان، شاید؛ منافع تجاری نیز مطمئناً) باقی می‌گذارید تا شما را دنبال و از شما سوءاستفاده کنند. مدتی قبل در رستورانی در نیویورک بودم که پیامی به دستم رسید. این پیام به من به‌خاطر انتخاب این غذاخوری تبریک گفت و مرا از غذاهای مخصوص آن روز مطلع ساخت. گرچه بدون استفاده از نقشۀ گوگل به آنجا رفته بودم، همین‌که سرویس مکان‌یاب گوشی‌ام فعال بود مرا به طعمۀ شکار تبدیل کرده بود: اردکی نشسته.

جدای از ترسناک‌بودن این قضیه، آیا اهمیتی هم دارد؟ این سؤالی است که باید از خود و یکدیگر بپرسیم.

اگر از کسانی که از محصولات گوگل یا فیس‌بوک استفاده می‌کنند یا سوار ماشین‌های اوبر می‌شوند یا سلفی‌های خود را در توییتر پست می‌کنند بپرسید که آیا برایشان مهم است که اطلاعات شخصی‌شان را مانند کالایی (که کالا هم هست) می‌فروشند، احتمالاً به شما خواهند گفت که این بهایی کوچک و بی‌اهمیت است که باید برای خدمات رایگانِ 

ما اطلاعاتمان را لو می‌دهیم؛ قطره‌قطره هم لو می‌دهیم و فکرش را نمی‌کنیم که دلالانِ اطلاعات آن را جمع‌آوری کرده و بفروشند، چه رسد به اینکه فکر کنیم آن را علیه خودمان مورد استفاده قرار دهند

جهت‌دهیِ پیچ‌به‌پیچ یا ایمیل یا ارتباط‌داشتن با دوستان قدیمی پرداخت. احتمالاً به شما خواهند گفت که تحویل تکه‌خرده‌های اطلاعات شخصی هزینۀ این معامله است، حال‌آنکه معاملۀ واقعیْ آن چیزی نیست که می‌گیرند، بلکه آن چیزی است که تحویل می‌دهند.

اگر واقعاً، آن‌طور که مارک زاکربرگ گفته است، حریم شخصیْ دیگر هنجاری اجتماعی نیست، از کجا به‌بعد دیگر هنجار سیاسی هم محسوب نمی‌شود؟ از کجا به‌بعد اولویت فرد بر حکومت، یا آزادی‌های مدنی یا دولتِ محدود نیز از صحنه خارج می‌شود؟ چون این ساده‌لوحانه است که فکر کنیم برای دولت اهمیتی ندارد که عادات خرید ما چه هستند یا دیروز ساعت چهار عصر کجا بوده‌ایم یا دوستانمان که هستند. آژانس‌های اطلاعاتی و پلیس هم داده‌ها را از دلالان می‌خرند. هدف آن‌ها از این کار دورزدن قوانینی است که توانایی آن‌ها را در جمع‌آوری اطلاعات شخصی محدود می‌کند؛ آن‌ها این کار را می‌کنند چون ارزان است، چون پایگاه‌های دادۀ تجاریْ چندلایه، قدرتمند و استوار هستند.

به‌علاوه، ردپای عظیم اطلاعاتی که با استفاده از جیمیل، ارسال عکس به اینترنت، ذخیرۀ کارمان بر گوگل درایو یا استفاده از اوبر به جا می‌گذاریم در دسترس نیروهای اعمال قانون است تا دستور تسلیم این اطلاعات را بدهند. اما گاهی هم شرکت‌های فناوریْ اطلاعات شخصی را بدون هیچ تقاضایی از جانب دولت تحویل می‌دهند، همان‌طور که مدتی پیش فهمیدیم که شرکت یاهو از طرف دولت ایالات متحده بر تمام ایمیل‌های ورودی نظارت دارد. همچنین اپلیکیشنی به‌نام جئوفیدیا وجود دارد که پلیس (و برخی دیگر) را قادر ساخته تا اطلاعات شخصی‌ای را که به‌طور عمومی به اشتراک گذاشته می‌شود از چندین سایت رسانۀ اجتماعیْ برهم بیفزاید تا فعالان را زیر نظر داشته و اعتراضات را در لحظه خاموش کند.

در ضمن پالانتیر، شرکت مرموز تحلیل داده‌های سیلیکون‌ولی، را هم نباید از قلم انداخت که بودجۀ آن را سی.‌آی.‌ای تأمین می‌کند و آژانس امنیت ملی، سی‌.آی.‌ای، اف‌.بی.‌آی، چندین نیروی پلیس، امریکن اکسپرس و صدها شرکت، آژانس اطلاعاتی و موسسۀ مالیِ دیگر از آن استفاده می‌کنند. الگوریتم‌های آنْ تحلیل سریع حجم عظیمی از داده‌ها را با استفاده از طیفی گسترده از منابع، همچون دوربین‌های ترافیکی، خریدهای آنلاین، پست‌های شبکه‌های اجتماعی، دوستی‌ها، تبادلات ایمیل و کلاً فعالیت‌های روزمرۀ انسان‌‌های بی‌گناه، میسر می‌کند. این کار مثلاً پلیس را قادر می‌سازد ارزیابی کند که آیا فردی که به‌خاطر شکسته‌بودن چراغ جلوی ماشینش متوقف شده ممکن است مجرم باشد یا روزی مجرم شود؟

ساده‌لوحانه است که فکر کنیم میان پایش تجاری و پایش دولتیْ دیواری آتشین و مانع هست. چنین چیزی وجود ندارد.

بسیاری از ما، به‌خصوص بعد از افشاگری‌های اسنودن، نگران دسترسی بیش‌ازحدِ دولت‌هایمان به منابع دیجیتال بوده‌ایم. اما میل مصرف‌گرایانه‌ای که افشای دیوانه‌وار اطلاعات شخصی را تقویت می‌کند نیز به همان اندازه برای حق فردی و رفاه جمعی ما خطرناک است. حتی شاید خطرناک‌تر باشد، چرا که ما، بدون‌ملاحظه، همۀ ۹۸ درجۀ آزادی را با مشتی از چیزهایی عوض می‌کنیم که، آن‌چنان‌که در ذهنمان فرو کرده‌اند، هزینه‌ای برایمان ندارند.

اطلاعات کتاب‌شناختی:
O'Neil, Cathy. Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing Group (NY), 2016

Ezrachi, Ariel. and Maurice E. Stucke. Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy. Harvard University Press, 2016

==========================


پی‌نوشت‌‌‌ها:
* این مطلب را سو هالپرن نوشته است و در تاریخ ۲۲ دسامبر ۲۰۱۶ با عنوان «They Have, Right Now, Another You» در وب‌سایت نیویورک ریویو آو بوکز منتشر شده است. 
* سو هالپرن (Sue Halpern) نویسندۀ دائمی نیویورک ریویو و پژوهشگر ساکن میدلبری است. آخرین کتاب او سگی به آسایشگاه می‌رود (دسامبر ۲۰۱۶) نام دارد.
[۱] Soccer mom
اصطلاحی برای اشاره به زنان سفیدپوست طبقه متوسط رو به بالا که وقت زیادی دارند که صرف ورزش و برنامه‌های جنبی بچه‌هایشان کنند.
[۲] Palantir
[۳] Consumer Reports
[۴] Datafication: تبدیل به داده
[۵] Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy
[۶] Omega Psi Phi
[۷] Virtual Competition: The Promise and Perils of the Algorithim-Driven Economy
[۸] pointillist