به گزارش گروه دانشگاه خبرگزاری دانشجو، امروزه اغلب میشنویم که هوش مصنوعی میتواند تقریباً تمام مشکلات ما را حل کند. پزشکی شخصیسازی میشود، رویههای دولتی سادهتر میشوند، و زمانی که مجبور باشیم فیلم یا آهنگی را متناسب با سلیقهمان انتخاب کنیم، همیشه به درستی عمل میکنیم.
به گفته آندریا روزالس، محقق گروه شبکههای ارتباطی و تغییرات اجتماعی (CNSC) در مؤسسه بینرشتهای اینترنتی دانشگاه اوبرتا د کاتالونیا (UOC)، جوامع ما فقط میتوانند مزایای دیجیتالیسازی را ببینند.
با این حال، او در تحلیل رمان «سرزمین باکیفیت» مارک-اووه کلینگ، اثری داستانی که جهانی را به تصویر میکشد که در آن همه چیز توسط الگوریتمها اداره میشود، که در کتاب راهنمای آیندههای خودکار De Gruyter منتشر شده است، به همراه سارا سوارز اشاره میکند که فنآوریهای جدید و نحوه اجرای آنها جنبهای تاریکتر و کمتر شناختهشده دارد.
دیجیتالی شدن اجباری جامعه به دلیل تعصبات درونی سیستمهای الگوریتمی، آسیب پذیرترین گروهها را حذف میکند. در واقع، به نظر میرسد فناوریها قادر به حل مشکلات هستند، اما در واقع قادر به انجام این کار نیستند.
روزالس که همچنین عضو دانشکده علوم اطلاعات و ارتباطات است، توضیح داد: «فناوریهای دیجیتال مقادیر زیادی داده تولید میکنند و این ایده را ایجاد میکنند که کنترل و کمیت کردن بیشتر جنبههای زندگی امکانپذیر است. اما بسیاری از جنبههای زندگی روزمره قابل اندازهگیری نیستند و بسیاری از کمیسازیها تقریبهای خامی از واقعیت هستند.»
الگوریتمهایی که برای ما تصمیم میگیرند نیز اشتباه میکنند
این موضوع در زندگی روزمره افراد تأثیر میگذارد، زیرا گاهی اوقات و بدون آگاهی از آن، علیرغم اینکه ممکن است اشتباه کنند یا عوامل خاصی را نادیده بگیرند، بر اساس توصیههایی که الگوریتمها ارائه میدهند، تصمیم میگیرند.
به عنوان مثال، برنامههای دوستیابی با تأکید بر جنبههای قابل سنجش زندگی ما، که بر سیستم اولویتها که محبوبترین کاربران را در این برنامهها نمایش میدهد، حاکم است، روش جستجوی ما برای شریک زندگی را تغییر داده است.
علاوه بر این، دادهها خنثی نیستند. یکی از خطرات این است که سوگیریها میتوانند پیش داوریهای موجود در جامعه را بازتولید یا بدتر کنند که نتیجه ناکامی آنها در نمایندگی گروههای محروم است. این مشکل با فقدان قوانین تنظیم کننده الگوریتمهای مورد استفاده امروزه که عمدتاً غیرشفاف هستند، تشدید میشود، زیرا تعداد بسیار کمی از مردم از نحوه عملکرد آنها اطلاع دارند.
تحلیل روزالز از رمان «سرزمین باکیفیت» نشان میدهد که چگونه این اثر داستانی دنیایی را ارائه میکند که به طور فزایندهای برای ما آشناست. مضامین آن منعکس کننده مشکلاتی است که جوامع معاصر ما با آن روبرو هستند: فقدان آزادی، ناامیدی از دیجیتالی شدن اجباری، خوش بینی فنی غالب، ابرداده سازی زندگی روزمره، و تهدیدهایی که سیستمهای مبتنی بر داده برای دموکراسی ایجاد میکنند.
مشکل پیتر
پیتر جابلس شخصیت اصلی فیلم Quality Land است و او زندگیای را پیش میبرد که بسیاری از ما میتوانیم با آن ارتباط برقرار کنیم: فروشگاه آنلاین دقیقاً میداند که پیتر چه میخواهد و قبل از اینکه حتی فکر کند آن را میخواهد، آن را برای او ارسال میکند. او از پلت فرمی استفاده میکند که شریک مناسب برای او پیدا میکند؛ و او برای اقدامات خود در دنیای دیجیتال رتبههای ثابتی دریافت میکند. TheShop، QualityPartner و RateMe که نام این اپلیکیشنها هستند به راحتی میتوانند با آمازون، Tinder و Instagram جایگزین شوند.
نظرات این شخصیت خیلی مهم نیست، زیرا در این دنیا، مدلها میگویند که او را بهتر از خودش میشناسند: آنها به همه جنبههای زندگی او دسترسی دارند و میتوانند به ناخودآگاه او دسترسی داشته باشند. با این وجود، پیتر احساس میکند که چیزی اشتباه است. او احساس میکند از دوستان، شریک زندگی و اشیایی که الگوریتم برای او انتخاب کرده است، جدا شده است.
دادهها میتوانند نقاط کور داشته باشند. ممکن است دارای سوگیری باشد، اشتباه کند، یا فقط برخی از بخشهای واقعیت را ضبط کند، در حالی که بخشهای دیگر را کنار بگذارد. اما زمانی که سیستمها اشتباه میکنند، اغلب تصور میکنند که مشکل به کاربر مربوط میشود – چیزی که رمان «مشکل پیتر» نامیده میشود – و نمیدانند که این صرفاً نشاندهنده نحوه عملکرد حاشیهسازی زمانی است که تصمیمگیری خودکار است.
دیجیتالی شدن اجباری
به گفته روزالز، یکی از بزرگترین مشکلات معاصر ما «دیجیتالی شدن اجباری» است. شخصیتهای رمان مجبورند در دنیای دیجیتال همه کارها را انجام دهند، زیرا جایگزینی ندارند؛ و این فقدان جایگزینهای آنالوگ به دولت و شرکتهای فناوری کنترل بیشتری بر زندگی آنها میدهد. این چیزی است که ما هر روز در جوامع خود شاهد آن هستیم. به طور فزایندهای یافتن خدمات عمومی که در آن قرار ملاقاتهای حضوری محدود است، یا جایی که نمیتوان به برخی از اطلاعات به جز استفاده از اینترنت دسترسی پیدا کرد، رایج است.
روزالز خاطرنشان میکند که تأثیر منفی نداشتن جایگزینی برای دیجیتال این است که افرادی که دانش فنی آنها محدود است یا علاقهای به این موضوعات ندارند، کنار گذاشته میشوند یا به افراد دیگر وابسته میشوند.
نقد فنی-خوشبینی
روزالس از مثال "QualityLand" استفاده میکند تا این ایده را که فناوری همیشه زندگی ما را آسانتر میکند، مثلاً با انتخاب بهتر برای ما، از بین ببرد. در عوض مشکلات جدیدی مانند عدم استقلال و افزایش نابرابری ایجاد خواهد کرد. همچنین خطرات ناشی از استفاده بیش از حد از دادهها را ایجاد میکند.
وی توضیح داد: مشکل پیتر، تلاش او برای قرار گرفتن در سیستمی است که توسط دادههایی اداره میشود که او نمیفهمد. الگوریتمهای غیرشفاف برای او تصمیم میگیرند، اگرچه او فرآیندهای آنها یا مبنای استدلال آنها را نمیداند.
این عدم شفافیت اغلب به عنوان یک اسرار تجاری، یک اقدام امنیتی، یک سیاست جلوگیری از تقلب یا به دلیل پیچیدگی الگوریتمها توجیه میشود. قوانین قادر به مقابله با همه چالشهای اجتماعی و سیاسی نیستند. اما علاوه بر دادههای جانبدارانه و پیشبینیهای نادرست، دادهسازی زندگی روزمره بر زندگی روزمره افراد، نحوه تعامل آنها و اینکه چگونه بخشی از جامعه هستند، تأثیر میگذارد.
نوع جدیدی از دموکراسی
موضوع جالب دیگری که مطرح میکند آینده دموکراسی است. در "QualityLand"، اندرویدی به نام جان ما در حال تبدیل شدن به رئیس جمهور کشور است، زیرا حزب او معتقد است شهروندان بیشتر به یک ربات اعتماد خواهند کرد تا یک انسان. یک ربات دادهها و حافظه بیشتری دارد و میتواند در هنگام تصمیم گیری به دنبال استدلالهای عینی تری باشد؛ بنابراین آیا این چیزی است که ما باید در نظر بگیریم؟
نویسنده اشاره میکند که این ایده که «سیاست افزوده» نامیده میشود، در میان برخی از بخشهای دانشگاهی و شرکتهای بزرگ فناوری مورد توجه قرار گرفته است. با این وجود، تهدیدات جدیدی را ایجاد میکند، زیرا میتواند اقلیتها را در پیگیری منافع خود برای اکثریت محروم کند، و نگرانکنندهتر، میتواند به یک سیستم تصمیمگیری تبدیل شود که پاسخگویی به آن بسیار دشوار است.
روزالس توضیح داد: در QualityLand، شهروندان کنترل بر دادهها و نحوه استفاده از آنها برای تصمیمگیریهای حیاتی را که بر حقوق و آزادیهای اساسی آنها تأثیر میگذارد، از دست میدهند.
تلاش برای محافظت از آسیب پذیرترین افراد و جستجوی مدلهایی که در آن دولت استقلال خود را از شرکتهای بزرگ فناوری حفظ کند، دو گامی است که محقق معتقد است برای حفاظت از دموکراسیها و حقوق اساسی ضروری است.