شناسهٔ خبر: 70335019 - سرویس اجتماعی
نسخه قابل چاپ منبع: دانشجو | لینک خبر

وقتی الگوریتم‌ها برای شما تصمیم می‌گیرند/ هشداری در مورد اتوماسیون و از دست دادن آزادی

امروزه اغلب می‌شنویم که هوش مصنوعی می‌تواند تقریباً تمام مشکلات ما را حل کند. پزشکی شخصی‌سازی می‌شود، رویه‌های دولتی ساده‌تر می‌شوند، و زمانی که مجبور باشیم فیلم یا آهنگی را متناسب با سلیقه‌مان انتخاب کنیم، همیشه به درستی عمل می‌کنیم.

صاحب‌خبر -

به گزارش گروه دانشگاه خبرگزاری دانشجو، امروزه اغلب می‌شنویم که هوش مصنوعی می‌تواند تقریباً تمام مشکلات ما را حل کند. پزشکی شخصی‌سازی می‌شود، رویه‌های دولتی ساده‌تر می‌شوند، و زمانی که مجبور باشیم فیلم یا آهنگی را متناسب با سلیقه‌مان انتخاب کنیم، همیشه به درستی عمل می‌کنیم.

به گفته آندریا روزالس، محقق گروه شبکه‌های ارتباطی و تغییرات اجتماعی (CNSC) در مؤسسه بین‌رشته‌ای اینترنتی دانشگاه اوبرتا د کاتالونیا (UOC)، جوامع ما فقط می‌توانند مزایای دیجیتالی‌سازی را ببینند.

با این حال، او در تحلیل رمان «سرزمین باکیفیت» مارک-اووه کلینگ، اثری داستانی که جهانی را به تصویر می‌کشد که در آن همه چیز توسط الگوریتم‌ها اداره می‌شود، که در کتاب راهنمای آینده‌های خودکار De Gruyter منتشر شده است، به همراه سارا سوارز اشاره می‌کند که فن‌آوری‌های جدید و نحوه اجرای آنها جنبه‌ای تاریک‌تر و کمتر شناخته‌شده دارد.

دیجیتالی شدن اجباری جامعه به دلیل تعصبات درونی سیستم‌های الگوریتمی، آسیب پذیرترین گروه‌ها را حذف می‌کند. در واقع، به نظر می‌رسد فناوری‌ها قادر به حل مشکلات هستند، اما در واقع قادر به انجام این کار نیستند.

روزالس که همچنین عضو دانشکده علوم اطلاعات و ارتباطات است، توضیح داد: «فناوری‌های دیجیتال مقادیر زیادی داده تولید می‌کنند و این ایده را ایجاد می‌کنند که کنترل و کمیت کردن بیشتر جنبه‌های زندگی امکان‌پذیر است. اما بسیاری از جنبه‌های زندگی روزمره قابل اندازه‌گیری نیستند و بسیاری از کمی‌سازی‌ها تقریب‌های خامی از واقعیت هستند.»

الگوریتم‌هایی که برای ما تصمیم می‌گیرند نیز اشتباه می‌کنند

این موضوع در زندگی روزمره افراد تأثیر می‌گذارد، زیرا گاهی اوقات و بدون آگاهی از آن، علیرغم اینکه ممکن است اشتباه کنند یا عوامل خاصی را نادیده بگیرند، بر اساس توصیه‌هایی که الگوریتم‌ها ارائه می‌دهند، تصمیم می‌گیرند.

به عنوان مثال، برنامه‌های دوستیابی با تأکید بر جنبه‌های قابل سنجش زندگی ما، که بر سیستم اولویت‌ها که محبوب‌ترین کاربران را در این برنامه‌ها نمایش می‌دهد، حاکم است، روش جستجوی ما برای شریک زندگی را تغییر داده است.

علاوه بر این، داده‌ها خنثی نیستند. یکی از خطرات این است که سوگیری‌ها می‌توانند پیش داوری‌های موجود در جامعه را بازتولید یا بدتر کنند که نتیجه ناکامی آنها در نمایندگی گروه‌های محروم است. این مشکل با فقدان قوانین تنظیم کننده الگوریتم‌های مورد استفاده امروزه که عمدتاً غیرشفاف هستند، تشدید می‌شود، زیرا تعداد بسیار کمی از مردم از نحوه عملکرد آنها اطلاع دارند.

تحلیل روزالز از رمان «سرزمین باکیفیت» نشان می‌دهد که چگونه این اثر داستانی دنیایی را ارائه می‌کند که به طور فزاینده‌ای برای ما آشناست. مضامین آن منعکس کننده مشکلاتی است که جوامع معاصر ما با آن روبرو هستند: فقدان آزادی، ناامیدی از دیجیتالی شدن اجباری، خوش بینی فنی غالب، ابرداده سازی زندگی روزمره، و تهدید‌هایی که سیستم‌های مبتنی بر داده برای دموکراسی ایجاد می‌کنند.

مشکل پیتر

پیتر جابلس شخصیت اصلی فیلم Quality Land است و او زندگی‌ای را پیش می‌برد که بسیاری از ما می‌توانیم با آن ارتباط برقرار کنیم: فروشگاه آنلاین دقیقاً می‌داند که پیتر چه می‌خواهد و قبل از اینکه حتی فکر کند آن را می‌خواهد، آن را برای او ارسال می‌کند. او از پلت فرمی استفاده می‌کند که شریک مناسب برای او پیدا می‌کند؛ و او برای اقدامات خود در دنیای دیجیتال رتبه‌های ثابتی دریافت می‌کند. TheShop، QualityPartner و RateMe که نام این اپلیکیشن‌ها هستند به راحتی می‌توانند با آمازون، Tinder و Instagram جایگزین شوند.

نظرات این شخصیت خیلی مهم نیست، زیرا در این دنیا، مدل‌ها می‌گویند که او را بهتر از خودش می‌شناسند: آنها به همه جنبه‌های زندگی او دسترسی دارند و می‌توانند به ناخودآگاه او دسترسی داشته باشند. با این وجود، پیتر احساس می‌کند که چیزی اشتباه است. او احساس می‌کند از دوستان، شریک زندگی و اشیایی که الگوریتم برای او انتخاب کرده است، جدا شده است.

داده‌ها می‌توانند نقاط کور داشته باشند. ممکن است دارای سوگیری باشد، اشتباه کند، یا فقط برخی از بخش‌های واقعیت را ضبط کند، در حالی که بخش‌های دیگر را کنار بگذارد. اما زمانی که سیستم‌ها اشتباه می‌کنند، اغلب تصور می‌کنند که مشکل به کاربر مربوط می‌شود – چیزی که رمان «مشکل پیتر» نامیده می‌شود – و نمی‌دانند که این صرفاً نشان‌دهنده نحوه عملکرد حاشیه‌سازی زمانی است که تصمیم‌گیری خودکار است.

دیجیتالی شدن اجباری

به گفته روزالز، یکی از بزرگترین مشکلات معاصر ما «دیجیتالی شدن اجباری» است. شخصیت‌های رمان مجبورند در دنیای دیجیتال همه کار‌ها را انجام دهند، زیرا جایگزینی ندارند؛ و این فقدان جایگزین‌های آنالوگ به دولت و شرکت‌های فناوری کنترل بیشتری بر زندگی آنها می‌دهد. این چیزی است که ما هر روز در جوامع خود شاهد آن هستیم. به طور فزاینده‌ای یافتن خدمات عمومی که در آن قرار ملاقات‌های حضوری محدود است، یا جایی که نمی‌توان به برخی از اطلاعات به جز استفاده از اینترنت دسترسی پیدا کرد، رایج است.

روزالز خاطرنشان می‌کند که تأثیر منفی نداشتن جایگزینی برای دیجیتال این است که افرادی که دانش فنی آنها محدود است یا علاقه‌ای به این موضوعات ندارند، کنار گذاشته می‌شوند یا به افراد دیگر وابسته می‌شوند.

نقد فنی-خوشبینی

روزالس از مثال "QualityLand" استفاده می‌کند تا این ایده را که فناوری همیشه زندگی ما را آسان‌تر می‌کند، مثلاً با انتخاب بهتر برای ما، از بین ببرد. در عوض مشکلات جدیدی مانند عدم استقلال و افزایش نابرابری ایجاد خواهد کرد. همچنین خطرات ناشی از استفاده بیش از حد از داده‌ها را ایجاد می‌کند.

وی توضیح داد: مشکل پیتر، تلاش او برای قرار گرفتن در سیستمی است که توسط داده‌هایی اداره می‌شود که او نمی‌فهمد. الگوریتم‌های غیرشفاف برای او تصمیم می‌گیرند، اگرچه او فرآیند‌های آنها یا مبنای استدلال آنها را نمی‌داند.


این عدم شفافیت اغلب به عنوان یک اسرار تجاری، یک اقدام امنیتی، یک سیاست جلوگیری از تقلب یا به دلیل پیچیدگی الگوریتم‌ها توجیه می‌شود. قوانین قادر به مقابله با همه چالش‌های اجتماعی و سیاسی نیستند. اما علاوه بر داده‌های جانبدارانه و پیش‌بینی‌های نادرست، داده‌سازی زندگی روزمره بر زندگی روزمره افراد، نحوه تعامل آنها و اینکه چگونه بخشی از جامعه هستند، تأثیر می‌گذارد.

نوع جدیدی از دموکراسی

موضوع جالب دیگری که مطرح می‌کند آینده دموکراسی است. در "QualityLand"، اندرویدی به نام جان ما در حال تبدیل شدن به رئیس جمهور کشور است، زیرا حزب او معتقد است شهروندان بیشتر به یک ربات اعتماد خواهند کرد تا یک انسان. یک ربات داده‌ها و حافظه بیشتری دارد و می‌تواند در هنگام تصمیم گیری به دنبال استدلال‌های عینی تری باشد؛ بنابراین آیا این چیزی است که ما باید در نظر بگیریم؟

نویسنده اشاره می‌کند که این ایده که «سیاست افزوده» نامیده می‌شود، در میان برخی از بخش‌های دانشگاهی و شرکت‌های بزرگ فناوری مورد توجه قرار گرفته است. با این وجود، تهدیدات جدیدی را ایجاد می‌کند، زیرا می‌تواند اقلیت‌ها را در پیگیری منافع خود برای اکثریت محروم کند، و نگران‌کننده‌تر، می‌تواند به یک سیستم تصمیم‌گیری تبدیل شود که پاسخگویی به آن بسیار دشوار است.

روزالس توضیح داد: در QualityLand، شهروندان کنترل بر داده‌ها و نحوه استفاده از آنها برای تصمیم‌گیری‌های حیاتی را که بر حقوق و آزادی‌های اساسی آنها تأثیر می‌گذارد، از دست می‌دهند.

تلاش برای محافظت از آسیب پذیرترین افراد و جستجوی مدل‌هایی که در آن دولت استقلال خود را از شرکت‌های بزرگ فناوری حفظ کند، دو گامی است که محقق معتقد است برای حفاظت از دموکراسی‌ها و حقوق اساسی ضروری است.