محققان امنیتی اخیراً روشی را شناسایی کردهاند که ChatGPT را به ابزاری بالقوه برای سرقت دادههای حساس از سرویسهای ابری تبدیل میکند. این حمله که AgentFlayer نام دارد، از تکنیک «تزریق مخفی دستور» (Prompt Injection) بهره میگیرد.
به گزارش ایتنا و به نقل از تکاسپات، در این روش، یک سند آلوده حاوی دستوراتی پنهان در متن سفید و فونت بسیار کوچک به قربانی ارسال میشود. این سند میتواند از طریق Google Drive یا سایر سرویسهای ذخیرهسازی ابری به اشتراک گذاشته شود و حتی نیازی به باز کردن مستقیم آن توسط قربانی ندارد.
آسیبپذیری مورد نظر از قابلیت جدید ChatGPT به نام Connectors سوءاستفاده میکند. این قابلیت برای اتصال دستیار هوش مصنوعی به برنامهها و سرویسهای خارجی مانند گوگل درایو و Microsoft OneDrive طراحی شده است. در سناریوی حمله، این دستور (پرامپت) مخفی به ChatGPT میگوید تا در حساب گوگل درایو قربانی جستوجو کرده، کلیدهای API را استخراج و آنها را به یک آدرس اینترنتی خاص ضمیمه کند. سپس این دادهها به سروری تحت کنترل مهاجم ارسال میشوند.
به گزارش ایتنا و به نقل از تکاسپات، در این روش، یک سند آلوده حاوی دستوراتی پنهان در متن سفید و فونت بسیار کوچک به قربانی ارسال میشود. این سند میتواند از طریق Google Drive یا سایر سرویسهای ذخیرهسازی ابری به اشتراک گذاشته شود و حتی نیازی به باز کردن مستقیم آن توسط قربانی ندارد.
آسیبپذیری مورد نظر از قابلیت جدید ChatGPT به نام Connectors سوءاستفاده میکند. این قابلیت برای اتصال دستیار هوش مصنوعی به برنامهها و سرویسهای خارجی مانند گوگل درایو و Microsoft OneDrive طراحی شده است. در سناریوی حمله، این دستور (پرامپت) مخفی به ChatGPT میگوید تا در حساب گوگل درایو قربانی جستوجو کرده، کلیدهای API را استخراج و آنها را به یک آدرس اینترنتی خاص ضمیمه کند. سپس این دادهها به سروری تحت کنترل مهاجم ارسال میشوند.

ویژگی «صفر کلیک» این حمله به این معناست که قربانی تنها با تعامل بعدی خود با ChatGPT، و در صورت فعال بودن Connectors، بدون هیچ اقدام اضافی اطلاعاتش را از دست میدهد. این امر نشان میدهد که مدلهای هوش مصنوعی با دسترسی مستقیم به دادههای کاربر و فایلهای ذخیرهشده در فضای ابری میتوانند به اهداف جذابی برای مجرمان سایبری تبدیل شوند.
اندی ون، مدیر ارشد امنیت در Google Workspace، اعلام کرده که این آسیبپذیری مختص سرویس ابری گوگل نیست و میتواند سرویسهای مشابه را نیز تهدید کند. با این حال، گوگل در حال توسعه تدابیری برای جلوگیری از اجرای دستورات مخرب پنهان است.
این مشکل اوایل سال جاری به اطلاع OpenAI رسیده و شرکت اقداماتی برای مسدودسازی سوءاستفاده AgentFlayer در Connectors انجام داده است. هرچند این حمله در هر بار تنها قادر به استخراج مقدار محدودی داده است، پژوهشگران هشدار دادهاند که مشکل اصلی، نبود محدودیت کافی برای دسترسی هوش مصنوعی به اطلاعات حساس کاربران است. این موضوع، نیاز به مقررات و سیاستهای امنیتی سختگیرانهتر در توسعه و استفاده از سیستمهای هوش مصنوعی را برجسته میکند.