وزارت امور خارجه بهتازگی گزارش سالانه خود را در مورد نقض حقوق بشر توسط آمریکا و انگلیس منتشر کرد.
این گزارش دربرگیرنده موارد نقض حقوق بشر توسط این کشورها از سپتامبر ۲۰۲۴ (شهریور/مهر ۱۴۰۳) تا سپتامبر ۲۰۲۵ (شهریور/مهر ۱۴۰۴) است.
یکی از موضوعهایی که در این گزارش به آن اشاره شده، نقض حریم خصوصی و سوءاستفاده از هوش مصنوعی در انگلیس است.
نقض حریم خصوصی در انگلیس
دولت انگلیس در سالهای اخیر، بهویژه در سال ۲۰۲۵، با انتقادهای گستردهای در زمینه نقض حریم خصوصی شهروندان روبهرو بوده است.
یکی از جنجالیترین موارد، صدور دستور مخفیانه توسط وزارت کشور انگلیس در ژانویه ۲۰۲۵ (دی/بهمن ۱۴۰۳) برای شرکت اَپِل بود که براساس قانون Investigatory Powers Act دسترسی به دادههای رمزنگاریشده کاربران iCloud را مطالبه میکرد.
این دستور، که بهعنوان اطلاعیه قابلیت فنی (TCN) شناخته میشود، اپل را ملزم به ایجاد دسترسی به دادههای رمزگذاریشده میکرد که شامل پشتیبانگیری دستگاهها، لیست مخاطبان، تاریخچه مکان و پیامها میشد، حتی برای کاربران خارج از انگلیس.
براساس گزارش پرایویسی اینترنشنال، این اقدام نه تنها حریم خصوصی کاربران انگلیسی، بلکه میلیونها کاربر جهانی را تهدید میکرد و بهعنوان حملهای بیسابقه به رمزنگاری توصیف شد.
اپل در فوریه ۲۰۲۵ (بهمن/اسفند ۱۴۰۳) در پاسخ به این دستور ویژگی حفاظت پیشرفته از دادهها (ADP) را برای کاربران انگلیسی غیرفعال کرد. این ویژگی امکان رمزنگاری کامل را برای دادههای iCloud فراهم میکرد.
به گزارش تچ تارگت، این تصمیم اپل امنیت و حریم خصوصی کاربران انگلیسی را کاهش داده و در عوض خطر نفوذ هکرها یا دسترسی غیرمجاز را افزایش داد. در همین حال، دولت انگلیس همچنان نتوانست دسترسی مورد نظر را به دست آورد.

سازمانهای حقوق بشری این اقدام را تضعیف جهانی رمزنگاری دانسته و هشدار دادند که چنین دستورهایی امنیت سایبری همه را به خطر میاندازد و انگلیس را به حلقه ضعیف در زنجیره امنیت دیجیتال تبدیل میکند.
قانون Investigatory Powers Act که در سال ۲۰۱۶ تصویب شد، پایه این دستورها بوده و همچنان منبع اصلی نگرانیها است و در ۲۰۲۴ با اصلاحیههایی گسترش یافت که قدرتهای نظارتی را افزایش داد.
سازمان پرایویسی اینترنشنال و لیبرتی در مارس ۲۰۲۵ (اسفند/فروردین) چالش حقوقی علیه رژیم TCN مطرح کرده و استدلال کردند که این قدرتها غیرضروری، نامتناسب و مخفیانه هستند. این قانون اجازه میدهد دولت انگلیس به شرکتهای خارجی دستور دهد امنیت محصولات خود را کاهش دهند، که این موضوع حریم خصوصی را بهطور نظاممند نقض میکند.
قانون موسوم به Online Safety Act که از ۲۰۲۵ بهطور کامل اجرا شد، نیز به نقض حریم خصوصی دامن زده است. این قانون سکوها را ملزم به تایید سن کاربران میکند، که بهطور معمول به معنای اسکن چهره یا ارائه مدارک شناسایی به شرکتهای سوم خارجی است.
- بیشتر بخوانید:
- گامهای اتحادیه اروپا در مسیر کنترل بیشتر فضای آنلاین
- تلاش انگلیس برای دسترسی به دادههای رمزگذاریشده و نقض حریم خصوصی
این فرآیند دادههای بیومتریک و شخصی میلیونها نفر را به شرکتهای بهطور معمول غیرانگلیسی و بدون نظارت کافی واگذار میکند، که خطر سوءاستفاده یا نشت داده را افزایش میدهد.
منتقدان میگویند این قانون نه تنها از کودکان محافظت نمیکند، بلکه حریم خصوصی بزرگسالان را قربانی میکند و به سانسور منجر شده است.
سوءاستفاده دولت انگلیس از هوش مصنوعی
یکی دیگر از موضوعهای مهم، سوءاستفاده دولت انگلیس از هوش مصنوعی است. دولت انگلیس در سالهای اخیر از هوش مصنوعی (AI) در حوزههای مختلفی مانند نظارت پلیس، تصمیمگیریهای مهاجرتی، تشخیص تقلب در مزایای اجتماعی و حتی پردازش دادههای بهداشتی استفاده کرده است.
با این حال، چندین مورد گزارششده وجود دارد که این استفادهها به تبعیض، نقض حریم خصوصی، خطاهای نظاممند یا تصمیمگیریهای غیرعادلانه منجر شده و انتقادهای گستردهای توسط سازمانهای حقوق بشری، رسانهها و کارشناسان بهدنبال داشته است.

این موارد بهطور معمول به دلیل عدم شفافیت، تعصب الگوریتمی یا اولویت دادن به کارایی بر حقوق افراد رخ دادهاند.
براساس گزارش دانشگاه کمبریج، یکی از برجستهترین موارد، استفاده پلیس انگلیس از فناوری تشخیص چهره زنده است. پلیس لندن انگلیس از این سیستم برای اسکن چهره افراد در مکانهای عمومی و مقایسه با پایگاه داده مجرمان استفاده میکند؛ اما گزارشها نشان میدهد که این فناوری خطای بیشتری در شناسایی افراد رنگینپوست، زنان و معلولان داشته و به متوقف کردن افراد اقلیت نژادی بهطور اشتباه شده است.
همچنین، عدم وجود پایه قانونی و نظارت کافی، این سیستم را به ابزاری برای نظارت جمعی تبدیل کرده که حقوق اعتراض و حریم خصوصی را نقض میکند.
در حوزه مهاجرت، وزارت کشور انگلیس از هوش مصنوعی برای اولویتبندی و پیشنهاد اقدامهای اجرایی علیه مهاجران استفاده کرده است.
این ابزارها براساس ملیت، قومیت یا دادههای بیومتریک پروندهها را به دستههای کمخطر (بهطور معمول سفیدپوستان از کشورهای ثروتمند) و پرخطر تقسیم میکنند. این موضوع به تبعیض نظاممند، رد خودکار ویزاها یا پیشنهاد اخراج بدون بررسی کافی انسانی منجر شده است.

بهگزارش گاردین، منتقدان این را اتوماسیون محیط خصمانه مینامند که نژادپرستی نهادی را تقویت میکند.
در بخش بهداشت، پروژههایی مانند Foresight (هوش مصنوعی آموزشدیده روی دادههای ۵۷ میلیون بیمار) بدون مجوز کامل یا رضایت، دادههای حساس را برای اهداف گستردهتر از تحقیق کووید استفاده کردهاند.
این به توقف پروژه، شکایت پزشکان و نگرانی از نقض حریم خصوصی و خطر شناسایی مجدد افراد حتی در دادههای ناشناس منجر شده است.
انتهای پیام/