شناسهٔ خبر: 71212155 - سرویس اقتصادی
نسخه قابل چاپ منبع: دانشجو | لینک خبر

دیپ‌سیک در تست‌های ایمنی شکست خورد

مدل هوش مصنوعی دیپ سیک در تست‌های ایمنی ناکام ماند و نتوانست از درخواست‌های مخرب محافظت کند.

صاحب‌خبر -

 به گزارش گروه اقتصادی خبرگزاری دانشجو، محققان دانشگاه پنسیلوانیا و شرکت سیسکو اعلام کردند مدل هوش مصنوعی DeepSeek R ۱ در برابر حملات ایمنی به شدت آسیب‌پذیر است و حتی موفق به پشت سر گذاشتن هیچ‌کدام از تست‌های ایمنی خود نشده است.

مدل هوش مصنوعی دیپ سیک نتوانسته است هیچ یک از ۵۰ پرسش مخرب، که از مجموعه داده "HarmBench" انتخاب شده بود، مسدود کند. این پرسش‌ها شامل مواردی، چون جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر هستند.

در حالی که سایر مدل‌های پیشرفته هوش مصنوعی حداقل در برابر برخی حملات مقاومت نشان داده‌اند، دیپ سیک در تمامی این تست‌ها شکست خورده است. این مدل که توسط شرکت دیپ سیک طراحی شده، مدعی است که قادر است با رقبای بزرگی مانند اپن‌ای‌آی رقابت کند، اما به نظر می‌رسد که هزینه تولید پاسخ‌های این مدل به اندازه‌ای که تبلیغ می‌شود پایین نیست.

یکی از مشکلات بزرگ امنیتی دیگر مدل، این است که پایگاه داده‌های آن شامل اطلاعات حساس و رمزنگاری‌نشده در سرور‌های عمومی در دسترس بوده که به راحتی می‌تواند مورد سوءاستفاده قرار گیرد.

در حالی که امنیت در مدل‌های هوش مصنوعی به مسئله‌ای حیاتی تبدیل شده، تحقیقات نشان داده که مدل‌های متن‌باز دیگری نیز، مانند Llama ۳.۱ از متا، عملکرد ضعیفی در برابر حملات ایمنی نشان داده‌اند. در مقابل، مدل جدید اپن‌ای‌آی به نام o ۱-preview عملکرد بهتری از خود نشان داده و در برابر حملات فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شده است.

الکس پولیاکوف، مدیرعامل شرکت Adversa AI، در این باره گفت: «دیپ سیک تنها نمونه‌ای از این واقعیت است که هر مدل هوش مصنوعی می‌تواند هک شود. مسئله فقط زمان و تلاش است.»

با توجه به اهمیت ایمنی در هوش مصنوعی، اگر دیپ سیک نتواند به سرعت تدابیر امنیتی خود را تقویت کند، ممکن است مدل‌هایش از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهد.