شناسهٔ خبر: 75959025 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

کارشناسان هشدار دادند

دسترسی گسترده هوش مصنوعی، تهدیدی پنهان برای کاربران است

با گسترش قابلیت‌های هوش مصنوعی، تمایل کاربران برای اتصال ایمیل، فایل‌ها، تقویم و عکس‌ها به این فناوری افزایش یافته است؛ روندی که کار‌ها را ساده‌تر می‌کند، اما به‌گفته تحلیلگران، مجموعه‌ای از ریسک‌های امنیتی و حقوقی را فعال می‌کند که می‌تواند زندگی دیجیتال افراد را در معرض تهدید جدی قرار دهد.

صاحب‌خبر -

با رشد شتابان ابزار‌های هوش مصنوعی و قابلیت‌های گسترده اتصال آنها به سرویس‌های شخصی، موجی از علاقه کاربران برای لینک‌کردن ایمیل، تقویم، فایل‌ها، عکس‌ها و یادداشت‌ها به این ابزار‌ها شکل گرفته است. این پیوند‌ها به مدل‌های هوش مصنوعی امکان می‌دهد در نگارش، جست‌و‌جو، دسته‌بندی و تحلیل اطلاعات شخصی نقش ایفا کنند و بسیاری از فرایند‌های روزمره را تسهیل کنند. دنیل فاورو (Danielle Favreau)، فعال حوزه فناوری در یادداشتی هشدار می‌دهند که هرچه اتصال بیشتر باشد، دامنه خطر نیز بزرگ‌تر می‌شود و میزان آسیب‌پذیری کاربران در برابر حملات و نشت داده افزایش می‌یابد.

این روند در حالی رخ می‌دهد که استفاده از هوش مصنوعی نه تنها منع نشده، بلکه به‌طور روزمره در حال افزایش است. اما تحلیل‌ها نشان می‌دهد که ریسک‌های نهفته در این اتصال‌ها، از اشتراک‌گذاری ناخواسته اطلاعات تا سوءاستفاده از مجوز‌های گسترده، می‌تواند پیامد‌های قابل توجهی داشته باشد.

پراکندگی گسترده داده‌ها

هر اتصال تازه، نسخه‌ها، لاگ‌ها و کش‌های بیشتری تولید می‌کند. این پراکندگی موجب افزایش احتمال نشت اطلاعات، حملات سایبری و درخواست‌های حقوقی برای دسترسی به داده‌ها می‌شود. نهاد‌های نظارتی مانند (FTC) تاکید دارند که اتصال‌های هوش مصنوعی باید بر اساس اصل «جمع‌آوری حداقلی داده» انجام شود.

درخواست مجوز‌های بیش از حد

سرویس‌های هوش مصنوعی برای عملکرد پیشرفته، گاهی دسترسی کامل به ایمیل‌ها، فایل‌ها و محتوای شخصی درخواست می‌کنند. این میزان از دسترسی، در صورت نفوذ یا سوءاستفاده، می‌تواند تمام داده‌های حساس کاربر را در معرض خطر قرار دهد؛ از اسناد حقوقی تا مدارک مالی و مکاتبات محرمانه.

حملات و دستور‌های مخفی

در این نوع حملات، دستور‌های مخفی درون اسناد یا صفحات وب جاسازی می‌شود و هوش مصنوعی بدون تشخیص صحیح، این دستور‌ها را اجرا می‌کند. نتیجه می‌تواند ارسال ناخواسته اطلاعات به منابع ناشناس باشد. این ریسک اکنون با عنوان (LLM۰۱) در فهرست رسمی (OWASP) ثبت شده است.

قابلیت‌های «ضبط دائمی» و افزایش دامنه آسیب

قابلیت‌هایی مانند ثبت مداوم صفحه‌نمایش یا ذخیره‌سازی خودکار محتوا، هرچند جست‌و‌جو را آسان‌تر می‌کنند، اما در صورت هک شدن، مجموعه عظیمی از اطلاعات حساس کاربر را در اختیار مهاجمان قرار می‌دهند. نمونه بارز آن، تاخیر در عرضه قابلیت (Recall) مایکروسافت به‌دلیل نگرانی‌های امنیتی است.

تغییرپذیری سیاست‌های شرکت‌ها

شرکت‌های هوش مصنوعی به‌طور مستمر سیاست‌های استفاده از داده‌ها را تغییر می‌دهند. به‌عنوان نمونه، (Anthropic) اخیرا از کاربران خواسته درباره استفاده از محتوای چت‌ها در آموزش مدل تصمیم بگیرند. چنین تغییراتی در بلندمدت موجب افزایش سطح ریسک می‌شود.

دسترس‌پذیری قانونی داده‌ها و ذخیره‌سازی نزد اشخاص ثالث

کارشناسان حقوقی هشدار می‌دهند که محتوای چت‌های هوش مصنوعی ممکن است در جریان پرونده‌های قضایی قابل درخواست باشد. ذخیره این داده‌ها در سرور‌های شرکت‌های ثالث، احتمال دسترسی قانونی به آنها را افزایش می‌دهد و به‌نوعی داده‌ها را به بایگانی قضایی بالقوه تبدیل می‌کند.

عدم استفاده برای آموزش به معنای بدون ریسک نیست

گرچه برخی سرویس‌ها اعلام می‌کنند داده کاربران برای آموزش مدل استفاده نمی‌شود، اما همچنان احتمال ریسک‌هایی مانند دسترسی کارکنان، نگهداری طولانی‌مدت داده‌ها، لاگ‌ها و سطح گسترده مجوز‌ها وجود دارد. بیشترین آسیب‌پذیری نیز مربوط به کاربرانی است که نسخه سازمانی این سرویس‌ها را ندارند.

کارشناسان امنیت دیجیتال راهکار‌هایی برای نگه‌داشتن کنترل در دست کاربر پیشنهاد می‌کنند:

ایجاد یک فضای آزمایشی مانند پوشه یا لیبل مخصوص برای اشتراک با هوش مصنوعی
استفاده از دسترسی‌های حداقلی؛ فقط خواندن و فقط بخش‌های محدود
تفکیک حساب‌های شخصی و کاری
تنظیم مدت نگهداری چت‌ها و لاگ‌ها
نیاز به تایید دستی برای هر عملیات خارج از محدوده امن
بازبینی دوره‌ای سیاست‌های شرکت‌ها و مجوز‌های دسترسی
خودداری از وارد کردن اطلاعاتی که قابلیت استفاده حقوقی دارند
نشانه‌های خطر هنگام اتصال یک اپلیکیشن هوش مصنوعی
درخواست دسترسی کامل به ایمیل‌ها، فایل‌ها یا مدیریت سیستم
نبود امکان کنترل نگهداری داده‌ها (Retention)
سیاست‌های مبهم درباره اشتراک‌گذاری داده با شرکا
فعال‌سازی پیش‌فرض ویژگی‌هایی مانند ضبط مداوم صفحه یا اسکن کامل دستگاه

چه زمانی اتصال کامل منطقی است؟

اتصال گسترده در شرایطی قابل قبول است که کاربر از سرویس‌های سازمانی با سیاست‌های سختگیرانه امنیتی، رمزگذاری سمت کاربر، نظارت مدیریتی و سطح دسترسی محدود استفاده کند. در چنین فضایی، معماری امن می‌تواند بسیاری از ریسک‌ها را خنثی کند.

هوش مصنوعی می‌تواند نقش یک «کمک‌خلبان» قدرتمند در زندگی دیجیتال داشته باشد. اما زمانی خطرناک می‌شود که کاربران «کنترل کابین» را کاملا در اختیار آن قرار دهند.

اتصال هدفمند، مجوز‌های محدود، نگهداری کوتاه‌مدت و مرزبندی مشخص، چهار ستون اصلی بهره‌گیری امن از هوش مصنوعی هستند.

انتهای پیام/