رسانه اقتصادی اجتماعی ایران
دورنمای اقتصاد

کلان داده | حریم شخصی و تحت کنترل بودن

خیزش کلان داده‌ بار دیگر جهان را نسبت به حریم شخصی به عنوان یک معضل عمومی سیاستی هوشیار کرده است. همسو و همراستا کردن فناوری‌های کلان داده و ارزش حریم شخصی کار دشواری است.

این دشواری ناشی از نظارت از بالا و نظارت از پایین است. آژانس‌های اطلاعاتی و مجری قانون دولت مقدار زیادی داده‌های ارتباطاتی را از طریق نظارت از بالا رصد و دریافت می‌کنند.

نظارت بر اطلاعات شخصی مردم

نظارت از پایین | رصد زندگی شخصی مردم

مساله دیگری که کمتر بحث شده اما مشکلی حتی بزرگ‌تر برای افرادی که هدف تروریسم یا تحقیقات الزامی قانونی نیستند، ایجاد می‌کند، دوربین‌های تلفن همراه و فناوری‌های پوشیدنی هستند که آنچه انجام می‌دهیم و می‌گوییم را «از پایین» دریافت می‌کنند- نظارت از پایین.

احتمال دارد رازها و زندگی شخصی ما از سوی یک نفر ناشر-مولف در تلفن‌های همراه افرادی که گرد هم جمع شده‌اند، پخش شده و با دنیا به اشتراک گذاشته شود.

این مشکلی است که هم ناشی از دولت و هم صنعت و همچنین ناشی از افرادی است که اکنون مالک چیزی هستند که 15 سال پیش، فناوری‌های درجات نظامی محسوب می‌شدند.

مقررات حریم شخصی در اروپا

در واکنش به نگرانی‌های موجود در مورد چگونگی از بین رفتن حریم شخصی توسط فناوری، بسیاری از دولت‌های اروپایی مقررات حریم شخصی قدرتمندی وضع کرده‌اند. مشکلی که دولت‌ها هنگام تلاش برای تصویب این مقررات با آن مواجه‌اند، دو بخش دارد.

  • نخست اینکه، بیشتر این فناوری‌های کلان داده اقدام به جمع‌آوری اطلاعات نمی‌کنند و جمع‌آوری یا توزیع آن را براساس‌ کشور سازماندهی نمی‌کنند. اگر اپلیکیشن یا برنامه کلان داده دیگری به شکل مرکزی مستقر شده باشد و داده‌ها را در محیط کسب و کار پسند و آزاد و آسان‌گیری مانند ایالات متحده ذخیره کند، فرض عملی بسیاری از شرکت‌ها این است که آنها تنها باید تحت حوزه قضایی قانونی ایالات متحده عمل کنند.
  • دوم اینکه، وقتی کشورها تلاش می‌کنند به شرکت‌های‌شان اجازه ساختن محصولاتی را ندهند که مقررات حریم شخصی را نقض می‌کند، عملا توانایی خود برای رقابت در یکی از سریع‌ترین بخش‌های رو به رشد اقتصاد جهان را از دست می‌دهند.

محدودیت دسترسی به کلان داده‌ها

محدود کردن دسترسی به داده‌ها در اقتصاد فردا، مشابه مقررات ‌گذاری در استفاده از اراضی در طول عصر کشاورزی یا مقررات‌گذاری آنچه مالکان کارخانه‌ها می‌توانستند در طول صنعتی شدن بسازند، است.

این کشورها خود را در تنگنای دوگانه‌ای می‌یابند: برای اینکه مقررات‌گذاری در خدمت منافع عمومی باشد، باید به اندازه کافی از حقوق فردی و جامعه حفاظت کرد اما نه آنقدر زیاد که سرمایه‌گذاری و رشد اقتصادی را از میان ببرد.

محدود کردن دسترسی به کلان داده‌ها

چه ما خواهان روایتی قدرتمندتر از احترام گذاشتن به حریم شخصی باشیم یا نباشیم، این امکان هست که اینک نتوانیم به عقب برگردیم و واقعا به آن مفهوم از حریم شخصی دست پیدا کنیم.

مارگو سلتزر ، استاد علوم رایانه دانشگاه هاروارد، در مجمع جهانی اقتصاد سال 2015 در داووس استدلال کرد که «حریم شخصی آن گونه‌ که در گذشته می‌شناختیم دیگر امکان‌پذیر نیست… آن تفکر متعارفی که از حریم شخصی داشتیم، مرده است.»

جلوی جمع‌آوری داده‌ها را نمی‌توان گرفت!

با رشد و گسترش حسگرها، دستگاه‌ها و شبکه‌هایی که در همه جا حاضرند و داده‌ها را به طرف خود می‌کشند، احتمال دارد از نقطه‌ای که بتوانیم جلوی جمع‌آوری داده‌ها به نحو چشمگیر را بگیریم، گذشته‌ باشیم. در عوض، شاید مجبور باشیم بر حفظ و استفاده صحیح داده‌ها تمرکز کنیم، یعنی به روشنی تعیین کنیم داده‌ها را چه مدت می‌توان نگه داشت و چگونگی‌ استفاده از آن را مدیریت کرد، اینکه آیا می‌توان آنها را فروخت و نوع رضایت مورد نیاز از شخصی که داده‌ها را ارایه داده است، بررسی کنیم.

دسترسی به کلان داده ها

در حالی که سلتزر اشاره دارد که عملا هر تکه از اطلاعات شخصی ما اکنون در دسترس افرادی است که آن را می‌خواهند، من فکر می‌کنم بخش‌هایی از زندگی ما هست که خصوصی باقی می‌ماند و ما باید برای خصوصی نگه داشتن آنها مبارزه کنیم.

به نظر من بهترین راه انجام این کار تمرکز بر تعریف قوانین حفظ داده‌ها و استفاده صحیح از آنها است. بیشتر اطلاعات مربوط به سلامت ما خصوصی باقی می‌ماند و با گسترش ژنومیک، نیاز به حریم شخصی بیشتر خواهد شد.

جان کوآکنبوش ، استاد زیست‌شناسی محاسباتی و بیوانفورماتیک در هاروارد، شرح می‌دهد که «به محض دسترسی به داده‌های ژنومیک، آن اطلاعات (شخصی) واقعا قابل شناسایی است. من می‌توانم آدرس و شماره تامین اجتماعی شما و هر شناساگر دیگری را پاک کنم، اما نمی‌توانم ژنوم شما را بدون زدودن اطلاعاتی که نیاز به تحلیل دارم، ناشناس کنم.»

خطر دسترسی به اطلاعات شخصی ژنومیک


این خطر که دسترسی گسترده به اطلاعات ژنومیک وجود دارد، به هیچ وجه اغراق‌آمیز نیست. تمام جزئی‌ترین مسائل شخصی و خصوصی ما که از نظر ژنتیکی چه کسانی و چه چیزهایی هستیم، به دلایلی فراتر از تلاش برای توسعه پزشکی دقیق، قابل استفاده دولت‌ها یا شرکت‌ها است.

اگر هزینه منتفع شدن از درمان‌های زندگی ‌بخش به دلیل ژنومیک، از دست دادن شخصی‌ترین داده‌های ما باشد، پس به قوانین قدرتمندی پیرامون این که چگونه داده‌ها حفظ و استفاده خواهند شد، نیاز است.

دسترسی به اطلاعات ژنومیک

دنیای بدون حریم شخصی و تغییر هنجارها

اگر دنیای 10 سال بعد دنیایی بدون حریم شخصی باشد، یعنی آن حریم شخصی که امروزه می‌شناسیم، پس هنجارها تغییر خواهند کرد. در جهانی بدون حریم شخصی، هر کسی یک رسوایی خواهد داشت و در آن جهان، این ایده که رفتار رسواکننده چیست باید تغییر کند.

من یاد انتخابات ریاست جمهوری سال 1992 می‌افتم، وقتی این پرسش که آیا بیل کلینتون پس از بوییدن ماریجوآنا آن را استنشاق کرده بود یا خیر، به معضلی عمده برای ستاد انتخاباتی وی تبدیل شد. اما با نگاهی به سال 2008، می‌بینیم که باراک اوباما مصرف ماریجوآنا و کوکایین در گذشته را پذیرفت که اساسا موضوع مهمی نبود. هنجارها در طول این 16 سال تغییر کرده بودند.

طی 15 سال آینده، وقتی بیشتر زندگی ما با فناوری‌های کلان داده درگیر شود، هنجارها حتی بیش از این تغییر خواهند کرد. آنچه امروزه رفتار رسواکننده محسوب می‌شود، چیز جدید و غیرعادی نبوده و ارزش خبری نخواهد داشت. ما به طور فزاینده‌ای مجبور خواهیم شد نقص‌پذیری ناشی از انسان بودن را بپذیریم، زیرا هر یک از ما خطاها و بی‌ملاحظگی‌های خودمان را خواهیم داشت که با داده‌های غیرقابل حذف، محفوظ خواهند ماند.

حتی با وجود این تغییر هنجارها، هنوز هم نیاز به تلاش برای جلوگیری از عمومی شدن اطلاعات اساسی مانند آرایش ژنتیکی‌مان خواهد بود. هنگامی که کلان داده‌ حریم شخصی را از بین می‌برد، برخی چیزها هستند که ارزش جنگیدن برای خصوصی ماندن را داشته باشند.

مشکلات کلان داده | داده‌های احمق

به همان اندازه که کلان داده‌ قدرتمند است، برخی چیزها هستند که کلان داده‌ نمی‌تواند خوب انجام دهد و شانس کمی وجود دارد که بهبود معنا داری در آینده قابل پیش‌بینی برای آن به وجود بیاید.

من هیچ پیشرفتی در کلان داده‌ نمی‌بینم که این حقیقت بدیهی را که تخصص ماشین‌ها در چیزهایی است که انجامش برای بشر دشوار است (مانند کار کردن 24 ساعت پشت سر هم یا حل سریع یک مساله ریاضی پیچیده) و انسان‌ها در چیزهایی تخصص دارند که ماشین‌ها آن را دشوار می‌یابند (مانند خلاقیت یا درک بستر فرهنگی و اجتماعی)، تغییر دهد.

داده های احمق

دیوید بروکس ، یادداشت‌نویس نیویورک تایمز اشاره می‌کند که داده‌ها در تحلیل جنبه‌های اجتماعی تعامل یا تشخیص محتوا شکست خورده‌اند: «آدم‌ها واقعا خوب داستان می‌گویند به طوری که دلایل متعددی را به هم می‌بافند. اما تحلیل داده‌ها در مورد روایتگری و نواندیشی کاملا بد عمل می‌کند و نمی‌تواند حتی برای یک رمان متوسط نیز بافت روشنگرانه‌ای ارائه دهد.»


این نکته نیز صادق‌ است که در حالی که تجزیه و تحلیل مجموعه‌ داده‌های هر چه بزرگ‌تر، نتایجی شبیه به ترجمه ماشینی تقریبا کامل ایجاد می‌کند، تعداد بیشتری همبستگی‌های کاذب نیز ایجاد می‌شود. هر چه مجموعه‌های داده‌ها بزرگ‌تر و گران‌ قیمت‌تر شوند، همبستگی‌های کاذب و نیز تایید کننده بیشتر می‌شوند. بیشتر برنامه‌های کلان داده کار ضعیفی در مورد تعیین این که کدام همبستگی‌ها بیشتر یا کمتر کاذب هستند، انجام می‌دهند.

مفهوم میله‌های خطا |کلان داده

استفاده از کلان داده برای به دست آوردن استنباط‌هایی که باید ارزیابی و آزمون شوند، اغلب به نفع استفاده از کلان داده‌ کنار گذاشته می‌شوند تا نتایج بی‌درنگی (آنی) ایجاد کنند، خواه یک معامله سهام، تعدیل در زنجیره تامین یا تصمیم به استخدام باشد.

با این حال تمام روندهایی که یافت می‌شود ریشه در واقعیت یا در متغیرهایی که این طور به نظر می‌رسند، ندارند. تمام پیش‌بینی‌های انجام گرفته با تحلیل داده‌ها باید با چیزهایی همراه باشند که «میله‌های خطا»ی پیش‌بینی نامیده می‌شوند، نمایش‌های بصری در مورد این که چقدر محتمل است یک پیش‌بینی غلط باشد که ریشه در همبستگی کاذب دارد.

وقتی با بیشتر مدیرعامل‌ها یا سرمایه‌گذاران حرف می‌زنم، آنها یا از میله‌های خطا چشم‌ پوشی می‌کنند یا آنها را نمی‌سازند و به نحوی در مورد الگوریتم‌های پردازش داده‌هایشان حرف می‌زنند گویی آنها توسط موجوداتی آسمانی خلق شده‌اند. این طور نیست. آنها را موجودات انسانی خلق کرده‌اند و مستعد خطا هستند.

پیش بینی شیوع ابولا | میله‌های خطا کلان داده

کلان داده‌ در پیش‌بینی شیوع ابولا در سال 2014 شکست خورد و سپس وقتی این اتفاق هم افتاد، به شدت در مورد دامنه گسترش آن اشتباه پیش‌بینی کردن کلان داده‌ به شدت در پیش‌بینی یا تشخیص شیوع ابتدایی این بیماری شکست خورد زیرا اطلاعاتی که از مناطق غربی آفریقا که مبتلا به ابولا بودند، به دست می‌آمد به زبان‌هایی نبود که در برنامه‌های نظارت‌ کننده انتخاب شود.

وقتی پروژه نظارت‌کننده کلان داده دانشگاه هاروارد، هلث‌مپ ، در نهایت یافتن بیماری را گزارش کرد، به این سبب بود که آن را از یک تلکس خبری فرانسه زبان برداشته بود و آن را پس از این که دولت گینه قبلا به سازمان بهداشت جهانی هشدار داده بود، گزارش کرد.

خطا در پیش‌بینی ابولا و مرگ ومیر هزاران نفر |  آفریقا 2014
خطا در پیش‌بینی ابولا و مرگ ومیر هزاران نفر | آفریقا 2014

وقتی روشن شد که ابولا یک اپیدمی شده بود، یک پیش‌بینی آماری از سوی مراکز کنترل بیماری منتشر شد که برآورد می‌کرد ممکن بود 4/1 میلیون نفر تا پایان ژانویه سال 2015 در لیبریا و سیرالئون آلوده شوند. تعداد واقعی کمتر از 25 هزار مورد بود. کلان داده می‌تواند اشتباهات بزرگی مرتکب شود.

کلان داده و ارزیابی و شناخت ارزش‌ها!

آنچه انسان‌ها با استنباط‌های کلان داده تولید شده انجام می‌دهند نیز می‌تواند به عنوان آزمونی برای ارزش‌ها به کار رود. وقتی داده‌ها از بدون ساختار بودن به سمت ساختار داشتن حرکت می‌کنند، ارزش‌ها و پیش‌داوری‌هایی را به پشتوانه فرمول آن انتخاب می‌کنند.

برای مثال، در آینده، در برنامه‌ای که برای متخصصان منابع انسانی ساخته می‌شود ممکن خواهد شد که سازگاری نماگرهای سلامت را با (احساس) ارزشمندی اشتغال آزمون کنند.

آیا تحلیل‌های پیش‌بینی‌‌کننده باید برای تعیین استخدام یک نفر که احتمالا یک بیماری خاص می‌گیرد، که فعلا آن را ندارد، استفاده شود؟

به نظر می‌رسد تبعیضی ناعادلانه باشد. با این حال حتی اگر شما آزادانه روی عوامل ریسک بیماری حساب نکنید، می‌توانید به طور غیرارادی آنها را به سادگی با نگاه کردن به عوامل متعارف تقریب بزنید.

کلان داده و ارزیابی و شناخت ارزش‌های انسانی

اگر متخصص اچ‌آر (منابع انسانی) در یک سازمان بزرگ کار کند و صرفا معیارهای متعارف استخدام، مانند پیش‌بینی نگهداشت فرد در سازمان و میزان تولید کارگرانی که به کار گرفته است را ارزیابی کند، یک تورش آماری علیه افرادی که از پیش بیشتر مستعد بیماری هستند، وجود خواهد داشت. علاوه بر چند معیار قابل اعتراض از جمله تورش علیه زنان در سال‌های فرزندآوری.

تورش‌های کلان داده در شناخت ارزش‌های انسانی

همبستگی‌های انجام گرفته از سوی کلان داده‌ احتمالا تورش منفی را تقویت می‌کند. از آنجا که کلان داده‌ اغلب به داده‌های تاریخی یا حداقل، وضع موجود وابسته است، به سهولت می‌تواند تبعیض علیه اقلیت‌های قومی و نژادی بی‌بهره را بازتولید کند. مدل‌های تمایل که در بسیاری از الگوریتم‌ها استفاده می‌شوند، می‌توانند در تورش علیه یک نفر که در هر نقطه از زندگیش در کدپستی یک محله کم‌ درآمد زندگی کرده، موثر باشد. اگر یک الگوریتم مورد استفاده توسط شرکت‌های منابع انسانی نمودار اجتماعی شما را بررسی کرده و به کاندیداهایی که بیشترین ارتباطات موجود را با یک فرصت کاری داشته باشند وزن مثبتی دهد، کار وارد شدن به جایگاه نخست را دشوارتر می‌کنند.

منبع : کتاب صنایع آینده؛ الک راس | ترجمه امیر شاملوئی

بدون دیدگاه on کلان داده | حریم شخصی و تحت کنترل بودن

یک دیدگاه بنویسید