با رشد شتابان ابزارهای هوش مصنوعی و قابلیتهای گسترده اتصال آنها به سرویسهای شخصی، موجی از علاقه کاربران برای لینککردن ایمیل، تقویم، فایلها، عکسها و یادداشتها به این ابزارها شکل گرفته است. این پیوندها به مدلهای هوش مصنوعی امکان میدهد در نگارش، جستوجو، دستهبندی و تحلیل اطلاعات شخصی نقش ایفا کنند و بسیاری از فرایندهای روزمره را تسهیل کنند. دنیل فاورو (Danielle Favreau)، فعال حوزه فناوری در یادداشتی هشدار میدهند که هرچه اتصال بیشتر باشد، دامنه خطر نیز بزرگتر میشود و میزان آسیبپذیری کاربران در برابر حملات و نشت داده افزایش مییابد.
این روند در حالی رخ میدهد که استفاده از هوش مصنوعی نه تنها منع نشده، بلکه بهطور روزمره در حال افزایش است. اما تحلیلها نشان میدهد که ریسکهای نهفته در این اتصالها، از اشتراکگذاری ناخواسته اطلاعات تا سوءاستفاده از مجوزهای گسترده، میتواند پیامدهای قابل توجهی داشته باشد.
پراکندگی گسترده دادهها
هر اتصال تازه، نسخهها، لاگها و کشهای بیشتری تولید میکند. این پراکندگی موجب افزایش احتمال نشت اطلاعات، حملات سایبری و درخواستهای حقوقی برای دسترسی به دادهها میشود. نهادهای نظارتی مانند (FTC) تاکید دارند که اتصالهای هوش مصنوعی باید بر اساس اصل «جمعآوری حداقلی داده» انجام شود.
درخواست مجوزهای بیش از حد
سرویسهای هوش مصنوعی برای عملکرد پیشرفته، گاهی دسترسی کامل به ایمیلها، فایلها و محتوای شخصی درخواست میکنند. این میزان از دسترسی، در صورت نفوذ یا سوءاستفاده، میتواند تمام دادههای حساس کاربر را در معرض خطر قرار دهد؛ از اسناد حقوقی تا مدارک مالی و مکاتبات محرمانه.
حملات و دستورهای مخفی
در این نوع حملات، دستورهای مخفی درون اسناد یا صفحات وب جاسازی میشود و هوش مصنوعی بدون تشخیص صحیح، این دستورها را اجرا میکند. نتیجه میتواند ارسال ناخواسته اطلاعات به منابع ناشناس باشد. این ریسک اکنون با عنوان (LLM۰۱) در فهرست رسمی (OWASP) ثبت شده است.
قابلیتهای «ضبط دائمی» و افزایش دامنه آسیب
قابلیتهایی مانند ثبت مداوم صفحهنمایش یا ذخیرهسازی خودکار محتوا، هرچند جستوجو را آسانتر میکنند، اما در صورت هک شدن، مجموعه عظیمی از اطلاعات حساس کاربر را در اختیار مهاجمان قرار میدهند. نمونه بارز آن، تاخیر در عرضه قابلیت (Recall) مایکروسافت بهدلیل نگرانیهای امنیتی است.
تغییرپذیری سیاستهای شرکتها
شرکتهای هوش مصنوعی بهطور مستمر سیاستهای استفاده از دادهها را تغییر میدهند. بهعنوان نمونه، (Anthropic) اخیرا از کاربران خواسته درباره استفاده از محتوای چتها در آموزش مدل تصمیم بگیرند. چنین تغییراتی در بلندمدت موجب افزایش سطح ریسک میشود.
دسترسپذیری قانونی دادهها و ذخیرهسازی نزد اشخاص ثالث
کارشناسان حقوقی هشدار میدهند که محتوای چتهای هوش مصنوعی ممکن است در جریان پروندههای قضایی قابل درخواست باشد. ذخیره این دادهها در سرورهای شرکتهای ثالث، احتمال دسترسی قانونی به آنها را افزایش میدهد و بهنوعی دادهها را به بایگانی قضایی بالقوه تبدیل میکند.
عدم استفاده برای آموزش به معنای بدون ریسک نیست
گرچه برخی سرویسها اعلام میکنند داده کاربران برای آموزش مدل استفاده نمیشود، اما همچنان احتمال ریسکهایی مانند دسترسی کارکنان، نگهداری طولانیمدت دادهها، لاگها و سطح گسترده مجوزها وجود دارد. بیشترین آسیبپذیری نیز مربوط به کاربرانی است که نسخه سازمانی این سرویسها را ندارند.
کارشناسان امنیت دیجیتال راهکارهایی برای نگهداشتن کنترل در دست کاربر پیشنهاد میکنند:
ایجاد یک فضای آزمایشی مانند پوشه یا لیبل مخصوص برای اشتراک با هوش مصنوعی
استفاده از دسترسیهای حداقلی؛ فقط خواندن و فقط بخشهای محدود
تفکیک حسابهای شخصی و کاری
تنظیم مدت نگهداری چتها و لاگها
نیاز به تایید دستی برای هر عملیات خارج از محدوده امن
بازبینی دورهای سیاستهای شرکتها و مجوزهای دسترسی
خودداری از وارد کردن اطلاعاتی که قابلیت استفاده حقوقی دارند
نشانههای خطر هنگام اتصال یک اپلیکیشن هوش مصنوعی
درخواست دسترسی کامل به ایمیلها، فایلها یا مدیریت سیستم
نبود امکان کنترل نگهداری دادهها (Retention)
سیاستهای مبهم درباره اشتراکگذاری داده با شرکا
فعالسازی پیشفرض ویژگیهایی مانند ضبط مداوم صفحه یا اسکن کامل دستگاه
چه زمانی اتصال کامل منطقی است؟
اتصال گسترده در شرایطی قابل قبول است که کاربر از سرویسهای سازمانی با سیاستهای سختگیرانه امنیتی، رمزگذاری سمت کاربر، نظارت مدیریتی و سطح دسترسی محدود استفاده کند. در چنین فضایی، معماری امن میتواند بسیاری از ریسکها را خنثی کند.
هوش مصنوعی میتواند نقش یک «کمکخلبان» قدرتمند در زندگی دیجیتال داشته باشد. اما زمانی خطرناک میشود که کاربران «کنترل کابین» را کاملا در اختیار آن قرار دهند.
اتصال هدفمند، مجوزهای محدود، نگهداری کوتاهمدت و مرزبندی مشخص، چهار ستون اصلی بهرهگیری امن از هوش مصنوعی هستند.
انتهای پیام/