کلان داده | حریم شخصی و تحت کنترل بودن
خیزش کلان داده بار دیگر جهان را نسبت به حریم شخصی به عنوان یک معضل عمومی سیاستی هوشیار کرده است. همسو و همراستا کردن فناوریهای کلان داده و ارزش حریم شخصی کار دشواری است.
این دشواری ناشی از نظارت از بالا و نظارت از پایین است. آژانسهای اطلاعاتی و مجری قانون دولت مقدار زیادی دادههای ارتباطاتی را از طریق نظارت از بالا رصد و دریافت میکنند.
نظارت از پایین | رصد زندگی شخصی مردم
مساله دیگری که کمتر بحث شده اما مشکلی حتی بزرگتر برای افرادی که هدف تروریسم یا تحقیقات الزامی قانونی نیستند، ایجاد میکند، دوربینهای تلفن همراه و فناوریهای پوشیدنی هستند که آنچه انجام میدهیم و میگوییم را «از پایین» دریافت میکنند- نظارت از پایین.
احتمال دارد رازها و زندگی شخصی ما از سوی یک نفر ناشر-مولف در تلفنهای همراه افرادی که گرد هم جمع شدهاند، پخش شده و با دنیا به اشتراک گذاشته شود.
این مشکلی است که هم ناشی از دولت و هم صنعت و همچنین ناشی از افرادی است که اکنون مالک چیزی هستند که 15 سال پیش، فناوریهای درجات نظامی محسوب میشدند.
مقررات حریم شخصی در اروپا
در واکنش به نگرانیهای موجود در مورد چگونگی از بین رفتن حریم شخصی توسط فناوری، بسیاری از دولتهای اروپایی مقررات حریم شخصی قدرتمندی وضع کردهاند. مشکلی که دولتها هنگام تلاش برای تصویب این مقررات با آن مواجهاند، دو بخش دارد.
- نخست اینکه، بیشتر این فناوریهای کلان داده اقدام به جمعآوری اطلاعات نمیکنند و جمعآوری یا توزیع آن را براساس کشور سازماندهی نمیکنند. اگر اپلیکیشن یا برنامه کلان داده دیگری به شکل مرکزی مستقر شده باشد و دادهها را در محیط کسب و کار پسند و آزاد و آسانگیری مانند ایالات متحده ذخیره کند، فرض عملی بسیاری از شرکتها این است که آنها تنها باید تحت حوزه قضایی قانونی ایالات متحده عمل کنند.
- دوم اینکه، وقتی کشورها تلاش میکنند به شرکتهایشان اجازه ساختن محصولاتی را ندهند که مقررات حریم شخصی را نقض میکند، عملا توانایی خود برای رقابت در یکی از سریعترین بخشهای رو به رشد اقتصاد جهان را از دست میدهند.
محدودیت دسترسی به کلان دادهها
محدود کردن دسترسی به دادهها در اقتصاد فردا، مشابه مقررات گذاری در استفاده از اراضی در طول عصر کشاورزی یا مقرراتگذاری آنچه مالکان کارخانهها میتوانستند در طول صنعتی شدن بسازند، است.
این کشورها خود را در تنگنای دوگانهای مییابند: برای اینکه مقرراتگذاری در خدمت منافع عمومی باشد، باید به اندازه کافی از حقوق فردی و جامعه حفاظت کرد اما نه آنقدر زیاد که سرمایهگذاری و رشد اقتصادی را از میان ببرد.
چه ما خواهان روایتی قدرتمندتر از احترام گذاشتن به حریم شخصی باشیم یا نباشیم، این امکان هست که اینک نتوانیم به عقب برگردیم و واقعا به آن مفهوم از حریم شخصی دست پیدا کنیم.
مارگو سلتزر ، استاد علوم رایانه دانشگاه هاروارد، در مجمع جهانی اقتصاد سال 2015 در داووس استدلال کرد که «حریم شخصی آن گونه که در گذشته میشناختیم دیگر امکانپذیر نیست… آن تفکر متعارفی که از حریم شخصی داشتیم، مرده است.»
جلوی جمعآوری دادهها را نمیتوان گرفت!
با رشد و گسترش حسگرها، دستگاهها و شبکههایی که در همه جا حاضرند و دادهها را به طرف خود میکشند، احتمال دارد از نقطهای که بتوانیم جلوی جمعآوری دادهها به نحو چشمگیر را بگیریم، گذشته باشیم. در عوض، شاید مجبور باشیم بر حفظ و استفاده صحیح دادهها تمرکز کنیم، یعنی به روشنی تعیین کنیم دادهها را چه مدت میتوان نگه داشت و چگونگی استفاده از آن را مدیریت کرد، اینکه آیا میتوان آنها را فروخت و نوع رضایت مورد نیاز از شخصی که دادهها را ارایه داده است، بررسی کنیم.
در حالی که سلتزر اشاره دارد که عملا هر تکه از اطلاعات شخصی ما اکنون در دسترس افرادی است که آن را میخواهند، من فکر میکنم بخشهایی از زندگی ما هست که خصوصی باقی میماند و ما باید برای خصوصی نگه داشتن آنها مبارزه کنیم.
به نظر من بهترین راه انجام این کار تمرکز بر تعریف قوانین حفظ دادهها و استفاده صحیح از آنها است. بیشتر اطلاعات مربوط به سلامت ما خصوصی باقی میماند و با گسترش ژنومیک، نیاز به حریم شخصی بیشتر خواهد شد.
جان کوآکنبوش ، استاد زیستشناسی محاسباتی و بیوانفورماتیک در هاروارد، شرح میدهد که «به محض دسترسی به دادههای ژنومیک، آن اطلاعات (شخصی) واقعا قابل شناسایی است. من میتوانم آدرس و شماره تامین اجتماعی شما و هر شناساگر دیگری را پاک کنم، اما نمیتوانم ژنوم شما را بدون زدودن اطلاعاتی که نیاز به تحلیل دارم، ناشناس کنم.»
خطر دسترسی به اطلاعات شخصی ژنومیک
این خطر که دسترسی گسترده به اطلاعات ژنومیک وجود دارد، به هیچ وجه اغراقآمیز نیست. تمام جزئیترین مسائل شخصی و خصوصی ما که از نظر ژنتیکی چه کسانی و چه چیزهایی هستیم، به دلایلی فراتر از تلاش برای توسعه پزشکی دقیق، قابل استفاده دولتها یا شرکتها است.
اگر هزینه منتفع شدن از درمانهای زندگی بخش به دلیل ژنومیک، از دست دادن شخصیترین دادههای ما باشد، پس به قوانین قدرتمندی پیرامون این که چگونه دادهها حفظ و استفاده خواهند شد، نیاز است.
دنیای بدون حریم شخصی و تغییر هنجارها
اگر دنیای 10 سال بعد دنیایی بدون حریم شخصی باشد، یعنی آن حریم شخصی که امروزه میشناسیم، پس هنجارها تغییر خواهند کرد. در جهانی بدون حریم شخصی، هر کسی یک رسوایی خواهد داشت و در آن جهان، این ایده که رفتار رسواکننده چیست باید تغییر کند.
من یاد انتخابات ریاست جمهوری سال 1992 میافتم، وقتی این پرسش که آیا بیل کلینتون پس از بوییدن ماریجوآنا آن را استنشاق کرده بود یا خیر، به معضلی عمده برای ستاد انتخاباتی وی تبدیل شد. اما با نگاهی به سال 2008، میبینیم که باراک اوباما مصرف ماریجوآنا و کوکایین در گذشته را پذیرفت که اساسا موضوع مهمی نبود. هنجارها در طول این 16 سال تغییر کرده بودند.
طی 15 سال آینده، وقتی بیشتر زندگی ما با فناوریهای کلان داده درگیر شود، هنجارها حتی بیش از این تغییر خواهند کرد. آنچه امروزه رفتار رسواکننده محسوب میشود، چیز جدید و غیرعادی نبوده و ارزش خبری نخواهد داشت. ما به طور فزایندهای مجبور خواهیم شد نقصپذیری ناشی از انسان بودن را بپذیریم، زیرا هر یک از ما خطاها و بیملاحظگیهای خودمان را خواهیم داشت که با دادههای غیرقابل حذف، محفوظ خواهند ماند.
حتی با وجود این تغییر هنجارها، هنوز هم نیاز به تلاش برای جلوگیری از عمومی شدن اطلاعات اساسی مانند آرایش ژنتیکیمان خواهد بود. هنگامی که کلان داده حریم شخصی را از بین میبرد، برخی چیزها هستند که ارزش جنگیدن برای خصوصی ماندن را داشته باشند.
مشکلات کلان داده | دادههای احمق
به همان اندازه که کلان داده قدرتمند است، برخی چیزها هستند که کلان داده نمیتواند خوب انجام دهد و شانس کمی وجود دارد که بهبود معنا داری در آینده قابل پیشبینی برای آن به وجود بیاید.
من هیچ پیشرفتی در کلان داده نمیبینم که این حقیقت بدیهی را که تخصص ماشینها در چیزهایی است که انجامش برای بشر دشوار است (مانند کار کردن 24 ساعت پشت سر هم یا حل سریع یک مساله ریاضی پیچیده) و انسانها در چیزهایی تخصص دارند که ماشینها آن را دشوار مییابند (مانند خلاقیت یا درک بستر فرهنگی و اجتماعی)، تغییر دهد.
دیوید بروکس ، یادداشتنویس نیویورک تایمز اشاره میکند که دادهها در تحلیل جنبههای اجتماعی تعامل یا تشخیص محتوا شکست خوردهاند: «آدمها واقعا خوب داستان میگویند به طوری که دلایل متعددی را به هم میبافند. اما تحلیل دادهها در مورد روایتگری و نواندیشی کاملا بد عمل میکند و نمیتواند حتی برای یک رمان متوسط نیز بافت روشنگرانهای ارائه دهد.»
این نکته نیز صادق است که در حالی که تجزیه و تحلیل مجموعه دادههای هر چه بزرگتر، نتایجی شبیه به ترجمه ماشینی تقریبا کامل ایجاد میکند، تعداد بیشتری همبستگیهای کاذب نیز ایجاد میشود. هر چه مجموعههای دادهها بزرگتر و گران قیمتتر شوند، همبستگیهای کاذب و نیز تایید کننده بیشتر میشوند. بیشتر برنامههای کلان داده کار ضعیفی در مورد تعیین این که کدام همبستگیها بیشتر یا کمتر کاذب هستند، انجام میدهند.
مفهوم میلههای خطا |کلان داده
استفاده از کلان داده برای به دست آوردن استنباطهایی که باید ارزیابی و آزمون شوند، اغلب به نفع استفاده از کلان داده کنار گذاشته میشوند تا نتایج بیدرنگی (آنی) ایجاد کنند، خواه یک معامله سهام، تعدیل در زنجیره تامین یا تصمیم به استخدام باشد.
با این حال تمام روندهایی که یافت میشود ریشه در واقعیت یا در متغیرهایی که این طور به نظر میرسند، ندارند. تمام پیشبینیهای انجام گرفته با تحلیل دادهها باید با چیزهایی همراه باشند که «میلههای خطا»ی پیشبینی نامیده میشوند، نمایشهای بصری در مورد این که چقدر محتمل است یک پیشبینی غلط باشد که ریشه در همبستگی کاذب دارد.
وقتی با بیشتر مدیرعاملها یا سرمایهگذاران حرف میزنم، آنها یا از میلههای خطا چشم پوشی میکنند یا آنها را نمیسازند و به نحوی در مورد الگوریتمهای پردازش دادههایشان حرف میزنند گویی آنها توسط موجوداتی آسمانی خلق شدهاند. این طور نیست. آنها را موجودات انسانی خلق کردهاند و مستعد خطا هستند.
پیش بینی شیوع ابولا | میلههای خطا کلان داده
کلان داده در پیشبینی شیوع ابولا در سال 2014 شکست خورد و سپس وقتی این اتفاق هم افتاد، به شدت در مورد دامنه گسترش آن اشتباه پیشبینی کردن کلان داده به شدت در پیشبینی یا تشخیص شیوع ابتدایی این بیماری شکست خورد زیرا اطلاعاتی که از مناطق غربی آفریقا که مبتلا به ابولا بودند، به دست میآمد به زبانهایی نبود که در برنامههای نظارت کننده انتخاب شود.
وقتی پروژه نظارتکننده کلان داده دانشگاه هاروارد، هلثمپ ، در نهایت یافتن بیماری را گزارش کرد، به این سبب بود که آن را از یک تلکس خبری فرانسه زبان برداشته بود و آن را پس از این که دولت گینه قبلا به سازمان بهداشت جهانی هشدار داده بود، گزارش کرد.
وقتی روشن شد که ابولا یک اپیدمی شده بود، یک پیشبینی آماری از سوی مراکز کنترل بیماری منتشر شد که برآورد میکرد ممکن بود 4/1 میلیون نفر تا پایان ژانویه سال 2015 در لیبریا و سیرالئون آلوده شوند. تعداد واقعی کمتر از 25 هزار مورد بود. کلان داده میتواند اشتباهات بزرگی مرتکب شود.
کلان داده و ارزیابی و شناخت ارزشها!
آنچه انسانها با استنباطهای کلان داده تولید شده انجام میدهند نیز میتواند به عنوان آزمونی برای ارزشها به کار رود. وقتی دادهها از بدون ساختار بودن به سمت ساختار داشتن حرکت میکنند، ارزشها و پیشداوریهایی را به پشتوانه فرمول آن انتخاب میکنند.
برای مثال، در آینده، در برنامهای که برای متخصصان منابع انسانی ساخته میشود ممکن خواهد شد که سازگاری نماگرهای سلامت را با (احساس) ارزشمندی اشتغال آزمون کنند.
آیا تحلیلهای پیشبینیکننده باید برای تعیین استخدام یک نفر که احتمالا یک بیماری خاص میگیرد، که فعلا آن را ندارد، استفاده شود؟
به نظر میرسد تبعیضی ناعادلانه باشد. با این حال حتی اگر شما آزادانه روی عوامل ریسک بیماری حساب نکنید، میتوانید به طور غیرارادی آنها را به سادگی با نگاه کردن به عوامل متعارف تقریب بزنید.
اگر متخصص اچآر (منابع انسانی) در یک سازمان بزرگ کار کند و صرفا معیارهای متعارف استخدام، مانند پیشبینی نگهداشت فرد در سازمان و میزان تولید کارگرانی که به کار گرفته است را ارزیابی کند، یک تورش آماری علیه افرادی که از پیش بیشتر مستعد بیماری هستند، وجود خواهد داشت. علاوه بر چند معیار قابل اعتراض از جمله تورش علیه زنان در سالهای فرزندآوری.
تورشهای کلان داده در شناخت ارزشهای انسانی
همبستگیهای انجام گرفته از سوی کلان داده احتمالا تورش منفی را تقویت میکند. از آنجا که کلان داده اغلب به دادههای تاریخی یا حداقل، وضع موجود وابسته است، به سهولت میتواند تبعیض علیه اقلیتهای قومی و نژادی بیبهره را بازتولید کند. مدلهای تمایل که در بسیاری از الگوریتمها استفاده میشوند، میتوانند در تورش علیه یک نفر که در هر نقطه از زندگیش در کدپستی یک محله کم درآمد زندگی کرده، موثر باشد. اگر یک الگوریتم مورد استفاده توسط شرکتهای منابع انسانی نمودار اجتماعی شما را بررسی کرده و به کاندیداهایی که بیشترین ارتباطات موجود را با یک فرصت کاری داشته باشند وزن مثبتی دهد، کار وارد شدن به جایگاه نخست را دشوارتر میکنند.
منبع : کتاب صنایع آینده؛ الک راس | ترجمه امیر شاملوئی