شناسهٔ خبر: 74710520 - سرویس بین‌الملل
نسخه قابل چاپ منبع: میزان | لینک خبر

هوش مصنوعی در مقابل حقوق بشر؛ تهدید کفه سنگین مخاطرات

هوش مصنوعی به دلایل مختلفی در حال تبدیل شدن به تهدیدی روزافزون برای حقوق بشر است.

صاحب‌خبر -
خبرگزاری میزان -

هوش مصنوعی AI، به‌عنوان شاخه‌ای پیچیده از علوم کامپیوتر در سال‌های اخیر به شکل جدی مورد توجه قرار گرفته است؛ ارتباط این فناوری پیشرفته با حقوق بشر یکی از موضوع‌های مهمی است که متعاقب گسترش استفاده از هوش مصنوعی و آشکار شدن پیامد‌های آن به کانون بحث‌های جدی وارد شده است.

تاکنون گزارش‌های متعددی درباره تاثیر مثبت هوش مصنوعی بر تامین حقوق بشر منتشر شده و نمونه‌هایی از این تاثیرگذاری نیز معرفی شده‌اند؛ به‌عنوان مثال، برخی بر این باور هستند که هوش مصنوعی می‌تواند پیوند‌های پرخطر زنجیره تامین کالا را براساس مکان یا بخش مشخص کند.

منتقدان با زیر سوال بردن این ادعاها، تاکید دارند که هوش مصنوعی فقط به اندازه داده‌هایی که دریافت می‌کند، خوب است و این احتمال وجود دارد که سوءاستفاده‌های جدی گزارش نشوند؛ در عین حال، در حالی که خوش‌بینی قابل توجهی در مورد پتانسیل هوش مصنوعی در بررسی‌های لازم حقوق بشر وجود دارد، هیچ ناظر جدی هوش مصنوعی را به‌عنوان یک راه‌حل جادویی نمی‌بیند.

در حالی که حامیان نقش مثبت هوش مصنوعی بر تامین و تضمین حقوق بشر بر سهولت مشاهده چنین نقض‌هایی از طریق هوش مصنوعی تاکید دارند، مخالفان این رویکرد می‌گویند که تشخیص چنین نقض‌هایی اغلب دشوار است و مرتکبان این نقض‌ها تلاش زیادی می‌کنند تا از معرض دید عموم پنهان شوند.

با توجه به نگرانی‌ها در مورد پتانسیل هوش مصنوعی برای کمک به نقض حقوق بشر، مطرح کردن هوش مصنوعی به‌عنوان راه‌حلی برای نقض حقوق بشر ممکن است غیرمنطقی به نظر برسد؛ در عین حال، این واقعیت انکارناپذیر است که چالش جلوگیری واقعی از وقوع نقض حقوق بشر، چالشی است که برای حل آن به چیزی بیش از هوش مصنوعی نیاز است.

چالش‌های هوش مصنوعی در دفاع از حقوق بشر

اگرچه هوش مصنوعی نوید هوش فوق بشری را می‌دهد، حقیقت این است که به‌عنوان ابزاری ساخته دست بشر، از مشکلات بسیار شبیه به مشکلات انسانی رنج می‌برد؛ بسیاری از این مشکلات، معضلات اخلاقی را ایجاد می‌کنند که ممکن است مانع از کاربرد هوش مصنوعی در فضای دفاع از حقوق بشر شود.

نخستین چالش، مسئله سوگیری داده‌ها وجود دارد؛ مدل‌های هوش مصنوعی فقط به اندازه داده‌هایی که براساس آن‌ها آموزش دیده‌اند، خوب هستند و اگر آن داده‌ها تحریف شده یا ناقص باشند، پیش‌بینی‌های هوش مصنوعی ممکن است نادرست یا بدتر از آن، تبعیض‌آمیز باشند.

چالش دوم مربوط به شفافیت است؛ الگوریتم‌های هوش مصنوعی، به‌ویژه آن‌هایی که مبتنی بر یادگیری ماشینی هستند، اغلب به‌عنوان جعبه‌های سیاه عمل می‌کنند، به این معنی که درک دقیق نحوه رسیدن آن‌ها به نتایجشان می‌تواند دشوار باشد؛ این عدم شفافیت می‌تواند اعتماد لازم برای اجرای آن‌ها در نظارت بر حقوق بشر را تضعیف کند.

چالش سوم، ماهیت پیچیده نقض حقوق بشر است که اغلب نتیجه شرایط عمیق سیاسی، اجتماعی و اقتصادی است؛ این خطر وجود دارد که هوش مصنوعی نتواند ظرافت‌های این موقعیت‌ها را درک کند یا بدتر از آن، تعصب‌های موجود در داده‌ها را تقویت کند.

چالش بعدی، سوءاستفاده احتمالی از هوش مصنوعی توسط برخی از بازیگران است؛ هوش مصنوعی در دست بازیگران نادرست می‌تواند منجر به نقض بیشتر حقوق بشر شود.

تسلط شرکت‌های خصوصی بر فناوری پیچیده و پیشرفته هوش مصنوعی نیز با درک این واقعیت که این فناوری به شکل عمیقی بر زندگی انسان‌ها تاثیر دارد، موضوعی مشکل‌ساز است؛ چراکه تحقیقات تجربی نشان می‌دهند که مهم‌ترین انگیزه برای سرمایه‌گذاری در فناوری، انجام سریع‌تر و کارآمدتر کار‌ها است، نه انجام بهتر کار‌ها و این موضوع نگرانی‌های آشکاری را در مورد ایمنی برنامه‌های کاربردی ایجاد می‌کند.

استاندارد‌های دوگانه ایجادشده توسط برخی از کشور‌ها در این زمینه، تعهد‌های مبهمی را ایجاد کرده و معافیت‌هایی را رقم زده است؛ این استاندارد دوگانه به‌طرز آشکاری با این واقعیت نشان داده می‌شود که رژیم صهیونیستی با وجود قبول و پذیرش تعهد‌ها در این زمینه، سیستم‌های هدف‌گیری هوش مصنوعی دیستوپیایی (ویران‌شهری) را برای خودکارسازی و تسریع تولید فهرست‌های کشتار جمعی در غزه مستقر می‌کند.

این تناقض بین تعهد‌های انجام‌شده روی کاغذ و واقعیت موجود نه‌تنها یک ریاکاری نگران‌کننده را آشکار می‌کند، بلکه پرسش‌های جدی در مورد تعهد جامعه بین‌المللی به پاسخگویی واقعی ایجاد می‌کند.

علاوه بر معافیت‌های بیش از حد، لابی‌گری‌های گسترده در صنایع مختلف برای کاهش تعهد‌ها و ایجاد معافیت‌های گسترده نیز وجود دارند.

 

هوش مصنوعی در مقابل حقوق بشر؛ تهدید کفه سنگین مخاطرات

خطر‌های هوش مصنوعی برای حقوق بشر

از زمان راه‌اندازی چت جی‌پی‌تی ChatGPT شرکت اوپن اِی‌آی OpenAI در سال ۲۰۲۲، جهان درگیر هیاهوی درباره هوش مصنوعی مولد (AI) شده است و اکنون تنظیم‌کنندگان مقررات در تلاشند تا آسیب‌ها و زیاده‌روی‌های آن را مهار کنند، اما این چیز جدیدی نیست.

پیش از این در سال ۲۰۱۸، زمانی که پیشرفت‌ها در یادگیری ماشین منجر به رونق اشتیاق به هوش مصنوعی شد، انفجار مشابه و همزمان دستورالعمل‌های اخلاقی هوش مصنوعی بی‌فایده و دیگر پیشنهاد‌های داوطلبانه خودتنظیمی رخ داد.

تلاش‌های مختلف در این زمینه از چندین زاویه در معرض تهدید است و با آن، هر شانسی برای دستیابی به واقعیتی که در آن توسعه هوش مصنوعی به جای نظارت و استثمار مردم، در خدمت آن‌ها باشد، از بین می‌رود.

هوش مصنوعی در موارد متعددی می‌تواند برای حقوق بشر مخاطره‌آمیز باشد؛ یکی از این خطر‌ها که به‌تازگی در صدر اخبار جا گرفته است، تاثیر مخرب استفاده از هوش مصنوعی بر نوجوانان و جوانان دچار و مبتلا به مشکلات سلامت روان است.

موضوع مشکل‌ساز در این زمینه مربوط به چت‌بات‌ها (نرم‌افزار‌های هوش مصنوعی) انسان‌نما و پدیده توهم است؛ تصور انسان‌ها از ارتباط با هوش مصنوعی به‌عنوان ارتباط با موجودی شبیه انسان می‌تواند پیامد‌های هولناکی داشته باشد؛ در سال ۲۰۲۳، مردی پس از اینکه یک چت‌بات به محرم اسرار او تبدیل شد و اضطراب زیست‌محیطی او را تشدید کرد، جان خود را گرفت؛ چراکه چت‌بات مورد استفاده این ایده را تقویت کرد که اگر خودش را بکشد، به نجات سیاره کمک خواهد کرد.

انتقال یا برون‌سپاری تصمیم‌گیری به هوش مصنوعی به‌ویژه در مورد سیستم‌های سلاح‌های خودمختار که می‌توانند بدون هدایت و کنترل انسان به اهداف ضربه بزنند، نیز خطرهایی جدی است.

در زیر به برخی از مهم‌ترین خطر‌های هوش مصنوعی برای حقوق بشر اشاره شده است:

فرسایش حق حریم خصوصی: حق زندگی خصوصی توسط ردیابی و نظارت مداومی که سیستم‌های هوش مصنوعی برای جمع‌آوری داده‌ها استفاده می‌کنند، تهدید می‌شود؛ عدم شفافیت در مورد نحوه عملکرد سیستم‌های هوش مصنوعی، عدم اطمینان را برای افراد ایجاد می‌کند، داده‌هایی که نه تنها منافع آن‌ها، بلکه آسیب‌پذیری‌های آن‌ها را نیز آشکار می‌کند.

تشدید تبعیض و نابرابری‌های اجتماعی: حق عدم تبعیض در معرض خطر فزاینده‌ای است، زیرا سیستم‌های هوش مصنوعی با هدف قرار دادن گروه‌های آسیب‌پذیر، تمایل دارند نابرابری‌های اجتماعی موجود را تشدید کنند؛ فناوری‌هایی مانند تشخیص چهره و مدل‌سازی زبان، تعصب علیه اقلیت‌های نژادی و قومی را نشان داده‌اند که منجر به بی‌عدالتی‌هایی مانند دستگیری‌ها و اتهام‌زنی‌های دروغین شده است.

علاوه بر این، ابهام و منافعی که توسط سیستم‌های هوش مصنوعی تامین می‌شود، می‌تواند شیوه‌های دستکاری را تداوم بخشد؛ در نهایت، سیستم‌های هوش مصنوعی گروه‌های خاصی مانند افرادی که سواد دیجیتالی ندارند یا افراد دارای معلولیت را بیشتر به حاشیه می‌راند.

چالش آزادی بیان: آزادی بیان نیز با چالش‌هایی رو‌به‌رو است؛ تعدیل مبتنی بر هوش مصنوعی در پلتفرم‌ها می‌تواند به‌طور ناخواسته اشکال مشروع بیان را فراتر از الزامات قانونی در مورد نفرت‌پراکنی و دیگر اشکال غیرقانونی بیان سرکوب کند؛ در واقع، سیستم‌های هوش مصنوعی برای درک زمینه و ظرافت در گفتار تلاش می‌کنند و استفاده از ربات‌ها امکانات جدیدی را برای سوءاستفاده ایجاد می‌کند.

علاوه بر این، سیستم‌هایی که الگوریتم‌هایی با طراحی‌های اعتیادآور دارند یا اتاق‌های پژواک ایجاد می‌کنند، مانند برخی از پلتفرم‌های رسانه‌های اجتماعی، می‌توانند بر توانایی انتخاب و تصمیم‌گیری آزادانه بدون اجبار یا دستکاری تاثیر بگذارند.

آسیب‌های ساختاری موثر بر کرامت انسانی: علاوه بر چالش‌های خاص حقوق بشر که در بالا ذکر شد، هوش مصنوعی تاثیر عمیقی بر کرامت انسانی به‌طور کلی دارد؛ آسیب‌های ساختاری ناشی از فناوری‌های نظارتی، مفاهیمی مانند استقلال انسانی، عاملیت انسانی، خودگردانی و خودمختاری را از بین می‌برند؛ در عین حال، فناوری‌های تشخیص احساسات با کاهش افراد به نقاط داده‌ای جدا از ارزش و کرامت ذاتی آن ها، خطر غیرانسانی کردن افراد را به همراه دارند.

آسیب‌های سطح جمعی و اجتماعی: ماهیت نامرئی و غیرقابل پیش‌بینی آسیب‌های حقوق بشری ناشی از سیستم‌های هوش مصنوعی، چالش‌های پیچیده‌ای را ایجاد می‌کند؛ در حالی که این آسیب‌ها ممکن است همیشه به صورت جداگانه قابل مشاهده نباشند، اثر تجمعی آن‌ها می‌تواند تاثیر قابل توجهی بر کل جوامع داشته باشد؛ درک وجود سیستم‌های جانبدارانه برای افراد دشوار است، زیرا تاثیر آن فقط با نگاه به داده‌های آماری و توزیع‌ها قابل مشاهده است؛ این امر نیاز به ملاحظات حقوق بشر را در کل چرخه عمر سیستم‌های هوش مصنوعی، از طراحی تا استقرار، برجسته می‌کند.

هوش مصنوعی چالش‌های زیادی را برای چارچوب حقوق بشر ایجاد می‌کند؛ بسیاری از این چالش‌ها با نگرانی‌هایی که از قبل برای نهاد‌های ملی حقوق بشر آشنا هستند، همسو هستند.

پیچیدگی در این واقعیت نهفته است که بخش زیادی از آسیب‌های ناشی از هوش مصنوعی به طور مستقیم در سطح فردی احساس نمی‌شود؛ در عوض، اغلب بدون توجه رخ می‌دهد و بر کل جامعه تاثیر می‌گذارد.

 

هوش مصنوعی در مقابل حقوق بشر؛ تهدید کفه سنگین مخاطرات

هوش مصنوعی؛ تهدید جهانی برای کرامت انسانی

طبق تحقیقات جدید دانشگاه چارلز داروین (CDU)، ظهور هوش مصنوعی (AI) نحوه تعامل مردم را تغییر داده است و یک خطر جهانی برای کرامت انسانی ایجاد می‌کند.

نویسنده اصلی این تحقیق توضیح داد که هوش مصنوعی به سرعت در حال تغییر شکل سیستم‌های حقوقی و اخلاقی غرب است، با وجود این، این تحول اصول دموکراتیک را از بین می‌برد و نابرابری‌های اجتماعی موجود را تقویت می‌کند.

وی تصریح کرد: چارچوب‌های نظارتی فعلی اغلب حقوق و آزادی‌های اساسی بشر، ازجمله حریم خصوصی، محافظت در برابر تبعیض، استقلال فردی و مالکیت معنوی را نادیده می‌گیرند؛ این کمبود تا حد زیادی به دلیل ماهیت مبهم بسیاری از مدل‌های الگوریتمی است که ردیابی عملیات آن‌ها را دشوار می‌کند.

به گفته وی، تصمیم‌های تولیدشده توسط سیستم‌های یادگیری عمیق و یادگیری ماشینی را نمی‌توان توسط انسان‌ها ردیابی کرد؛ این ابهام، درک اینکه آیا و چگونه یک مدل هوش مصنوعی به حقوق یا کرامت آن‌ها تجاوز کرده است، برای افراد چالش برانگیز می‌کند و مانع از پیگیری موثر عدالت در صورت وقوع چنین تخلفاتی می‌شود.

تاکید بر همسویی هوش مصنوعی با حقوق بشر

کارشناسان سازمان ملل به‌تازگی از دولت‌ها و مشاغل خواستند تا اطمینان حاصل کنند که تهیه و استقرار سیستم‌های هوش مصنوعی با اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر همسو است.

رئیس گروه کاری سازمان ملل در مورد تجارت و حقوق بشر، در گزارشی به پنجاه‌ونهمین جلسه شورای حقوق بشر گفت: سیستم‌های هوش مصنوعی جوامع ما را متحول می‌کنند، اما بدون حفاظات مناسب، آن‌ها خطر تضعیف حقوق بشر را دارند.

این گروه کاری تصریح کرد: کشور‌ها به طور فزاینده‌ای از دستورالعمل‌های داوطلبانه به سمت قوانین الزام‌آور در مورد هوش مصنوعی و حقوق بشر در حال تغییر هستند، اما چشم‌انداز نظارتی هنوز پراکنده است، فاقد استاندارد‌های جهانی با تعاریف توافق‌شده و ادغام دیدگاه کشور‌های جنوب جهان است.

کارشناسان تشریح کردند که چگونه سیستم‌های هوش مصنوعی هنگامی که بدون بررسی کافی حقوق بشر مطابق با اصول راهنما تهیه یا مستقر شوند، می‌توانند منجر به تاثیر‌های نامطلوب بر همه حقوق بشر، ازجمله تبعیض، نقض حریم خصوصی و محرومیت، به‌ویژه برای گروه‌های در معرض خطر ازجمله زنان، کودکان و اقلیت‌ها شوند.

آن‌ها تاکید کردند که بازیگران دولتی و خصوصی باید ارزیابی‌های دقیقی از تاثیر حقوق بشر انجام دهند و شفافیت، پاسخگویی، نظارت و دسترسی به راه‌حل را تضمین کنند.

سازمان ملل پیشتر ۲ قطعنامه درباره تاثیر هوش مصنوعی بر حقوق بشر در مجمع عمومی تصویب کرد و هشدار داد که برخی از کاربرد‌های هوش مصنوعی با حقوق بشر ناسازگار است.

انتهای پیام/