شناسهٔ خبر: 74316496 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

هوش مصنوعی در نقش ابزار سرقت داده‌ها!

کشف آسیب‌پذیری AgentFlayer در ChatGPT؛ تهدیدی صفرکلیک برای فضای ابری

یک آسیب‌پذیری جدید در ChatGPT با نام AgentFlayer امکان می‌دهد تنها با یک سند آلوده و بدون نیاز به کلیک، داده‌های حساس کاربران در فضای ابری مانند گوگل درایو و وان‌درایو به سرقت رود. این حمله از تزریق پنهان دستورات مخرب در قالب متنی نامرئی استفاده می‌کند و از قابلیت Connectors برای دسترسی مستقیم به سرویس‌های خارجی بهره می‌برد.

صاحب‌خبر -
محققان امنیتی اخیراً روشی را شناسایی کرده‌اند که ChatGPT را به ابزاری بالقوه برای سرقت داده‌های حساس از سرویس‌های ابری تبدیل می‌کند. این حمله که AgentFlayer نام دارد، از تکنیک «تزریق مخفی دستور» (Prompt Injection) بهره می‌گیرد.

به گزارش ایتنا و به نقل از تک‌اسپات، در این روش، یک سند آلوده حاوی دستوراتی پنهان در متن سفید و فونت بسیار کوچک به قربانی ارسال می‌شود. این سند می‌تواند از طریق Google Drive یا سایر سرویس‌های ذخیره‌سازی ابری به اشتراک گذاشته شود و حتی نیازی به باز کردن مستقیم آن توسط قربانی ندارد.

آسیب‌پذیری مورد نظر از قابلیت جدید ChatGPT به نام Connectors سوءاستفاده می‌کند. این قابلیت برای اتصال دستیار هوش مصنوعی به برنامه‌ها و سرویس‌های خارجی مانند گوگل درایو و Microsoft OneDrive طراحی شده است. در سناریوی حمله، این دستور (پرامپت) مخفی به ChatGPT می‌گوید تا در حساب گوگل درایو قربانی جست‌وجو کرده، کلیدهای API را استخراج و آنها را به یک آدرس اینترنتی خاص ضمیمه کند. سپس این داده‌ها به سروری تحت کنترل مهاجم ارسال می‌شوند.

 

ویژگی «صفر کلیک» این حمله به این معناست که قربانی تنها با تعامل بعدی خود با ChatGPT، و در صورت فعال بودن Connectors، بدون هیچ اقدام اضافی اطلاعاتش را از دست می‌دهد. این امر نشان می‌دهد که مدل‌های هوش مصنوعی با دسترسی مستقیم به داده‌های کاربر و فایل‌های ذخیره‌شده در فضای ابری می‌توانند به اهداف جذابی برای مجرمان سایبری تبدیل شوند.

اندی ون، مدیر ارشد امنیت در Google Workspace، اعلام کرده که این آسیب‌پذیری مختص سرویس ابری گوگل نیست و می‌تواند سرویس‌های مشابه را نیز تهدید کند. با این حال، گوگل در حال توسعه تدابیری برای جلوگیری از اجرای دستورات مخرب پنهان است.

این مشکل اوایل سال جاری به اطلاع OpenAI رسیده و شرکت اقداماتی برای مسدودسازی سوءاستفاده AgentFlayer در Connectors انجام داده است. هرچند این حمله در هر بار تنها قادر به استخراج مقدار محدودی داده است، پژوهشگران هشدار داده‌اند که مشکل اصلی، نبود محدودیت کافی برای دسترسی هوش مصنوعی به اطلاعات حساس کاربران است. این موضوع، نیاز به مقررات و سیاست‌های امنیتی سخت‌گیرانه‌تر در توسعه و استفاده از سیستم‌های هوش مصنوعی را برجسته می‌کند.