شناسهٔ خبر: 75471060 - سرویس استانی
نسخه قابل چاپ منبع: آنا | لینک خبر

الگوریتم‌ها جعبه سیاه تصمیم‌گیری در دنیای امروز

استاد مدیریت بازرگانی دانشکده مدیریت، دانشگاه تهران گفت: انسان حق دارد بداند چه کسی و چگونه برای او تصمیم می‌گیرد و الگوریتم‌ها به‌نوعی به جعبه سیاه تصمیم‌گیری در حوزه‌های تبدیل شده‌اند.

صاحب‌خبر -

به گزارش خبرنگار آنا، محسن نظری استاد مدیریت بازرگانی دانشکده مدیریت دانشگاه تهران در نخستین همایش ملی«اخلاق حرفه‌ای و مسئولیت‌پذیری اجتماعی در مدیریت و علوم مالی با رویکرد اسلامی» با تاکید بر نقش کلیدی اخلاق الگوریتمی در دنیای امروز، اظهار داشت: امروز، الگوریتم‌ها باید در خدمت انسان و پیشرفت جوامع بشری باشند.

وی عنوان کرد: اگر در موتور‌های جستجوگر به‌دنبال واژه‌هایی مانند «Algorithmic Ethics» یا «اخلاق الگوریتمی» بگردید، متوجه می‌شوید که این موضوع اخیراً بسیار رایج شده که دلیل این مسئله آن است که امروز، الگوریتم‌ها نقش تعیین‌کننده‌ای در زندگی روزمره افراد ایفا می‌کنند.

استاد مدیریت بازرگانی دانشکده مدیریت دانشگاه تهران با تأکید بر نقش اساسی الگوریتم‌ها در حوزه‌های مدیریت و مالی گفت: در دنیای امروز، عملاً جهان توسط الگوریتم‌ها ساخته می‌شود و داده‌ها بیشتر از گذشته در دسترس هستند و همه حرکات از عبور از خیابان گرفته تا بررسی ایمیل یا حضور در یک مکان خاص، تحت رصد الگوریتم‌ها قرار دارد؛ چیزی که در گذشته اصلاً قابل تصور نبود.

نظری افزود: در گذشته، بسیاری از کار‌ها به صورت دستی انجام می‌شد و انسان‌ها در دسترسی به اطلاعات با محدودیت‌هایی مواجه بودند؛ اما با طراحی و توسعه الگوریتم‌ها این محدودیت‌ها برداشته شده و در مقابل، انسان‌ها در معرض فرصت‌ها و تهدیدات جدی‌تری قرار گرفته‌اند. معمولاً با ظهور پدیده‌های جدید، انسان‌ها بدون تحقیق کافی، بیشتر به جنبه‌های مثبت آن توجه می‌کنند و از ملاحظات اخلاقی غفلت می‌شود.

وی با اشاره به نقش فناوری و هوش مصنوعی در زندگی بشر بیان کرد: امروزه فناوری و هوش مصنوعی تأثیرات جدی و گسترده‌ای بر همه ابعاد زندگی انسان‌ها داشته‌اند از دوربین‌های مداربسته خانگی گرفته تا سامانه‌های راهور و رانندگی، همه توسط الگوریتم‌ها مدیریت و پایش می‌شوند.

استاد مدیریت بازرگانی دانشکده مدیریت دانشگاه تهران گفت: الگوریتم‌ها فرصت‌های بزرگی را برای بشر ایجاد کرده‌اند؛ اما لازم است که ملاحظات اخلاقی در طراحی و استفاده از آنها رعایت شود به طوری که اپلیکیشنی مانند اینستاگرام که امروزه کاربران زیادی دارد با توجه به رفتار روزمره کاربران، عددالگوریتم‌های خاصی را پیاده‌سازی می‌کند.

نظری با بیان اینکه افراد امروز به‌جای پرداختن به فعالیت‌هایی مانند ورزش، بیشتر در فضای مجازی حضور دارند، تصریح کرد: مطالب ارائه‌شده در فضای مجازی بر اساس نیاز‌های کاربران نمایش داده می‌شود؛ اما این مسئله افراد را به انسان‌هایی تک‌بعدی تبدیل کرده؛ الگوریتم‌ها دقیقاً می‌دانند شما کجا هستید به چه چیزی علاقه دارید و چه کالا‌هایی با چه قیمتی مورد نیاز شما است.

وی مطرح کرد: هوش مصنوعی نه‌تنها بر ابعاد اجتماعی و سلامت فردی اثرگذار است؛ بلکه در ساحت‌های کلانی مانند روابط سیاسی و نظامی نیز اثرات عمیق و مهمی دارد از اینرو، پرداختن به اخلاق الگوریتمی بیش از هر زمان دیگری اهمیت دارد.

استاد مدیریت بازرگانی دانشکده مدیریت دانشگاه تهران همچنین به روند فزاینده استفاده از الگوریتم‌ها در جهان اشاره کرد و توضیح داد: امروزه مباحثی مانند انصاف الگوریتمی در حوزه اخلاق فناوری به طور جدی مورد توجه محافل علمی و کسب‌وکار‌ها در سراسر دنیاست به طوری که حتی برخی شرکت‌ها مانند دیجی‌کالا و اسنپ، خود را موظف به انتشار الگوریتم‌ها و گزارش‌های مربوط به تصمیم‌سازی‌های مبتنی بر داده کرده‌اند که این امر نشان‌دهنده اهمیت فزاینده نظارت و شفاف‌سازی در فرآیند‌های الگوریتمی است.

نظری تبیین کرد: انسان حق دارد بداند چه کسی و چگونه برای او تصمیم می‌گیرد و الگوریتم‌ها به‌نوعی به جعبه سیاه تصمیم‌گیری در حوزه‌های مختلف از جمله قیمت‌گذاری تبدیل شده‌اند، این در حالی است که در بسیاری از مواقع حتی انسان‌ها نیز درک درستی از این فرآیند ندارند.

وی  پدیده «سرمایه‌داری نظارتی» را یکی از نگرانی‌های جدی در استفاده نادرست از الگوریتم‌ها عنوان کرد و ادامه داد: امروز مصرف‌کنندگان با سیستم‌هایی مواجه هستند که قدرت تحلیلی آنها از انسان بسیار فراتر است.

استاد مدیریت بازرگانی دانشکده مدیریت دانشگاه تهران تأکید کرد: با توجه به اهمیت فزاینده الگوریتم‌ها در همه ابعاد زندگی انسان، ضرورت رعایت ملاحظات اخلاقی در طراحی و استفاده از آنها بیش از پیش حس می‌شود و اخلاق الگوریتمی باید در کانون توجه قرار گیرد تا از تهدیدات بالقوه آنها جلوگیری و بهره‌مندی از فرصت‌های عظیم آنها به شیوه‌ای عادلانه و شفاف تبدیل شود.

انتهای پیام/