شناسهٔ خبر: 67020715 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: سیتنا | لینک خبر

علت خطرناک بودن چت جی‌پی‌تی جدید برای کاربران چیست؟

با آزادسازی دسترسی رایگان به نسخه جدید چت جی‌پی‌تی از سوی شرکت اوپن‌ای‌آی، نگرانی‌ها درباره سوءاستفاده از این هوش مصنوعی برای تولید و انتشار اطلاعات نادرست و محتوای توهین‌آمیز افزایش یافته است.

صاحب‌خبر -

به گزارش سرویس بین‌الملل سیتنا، تحقیقات واحد مقابله با اطلاعات نادرست رادیو کانادا نشان می‌دهد که نسخه GPT-4 جدید، با وجود وعده‌های شرکت سازنده، به راحتی قابل فریب است و می‌تواند برای تولید محتوای تکان‌دهنده، نژادپرستانه و ترویج تئوری‌های توطئه مورد سوءاستفاده قرار گیرد.

بر اساس گزارش این رسانه، کافی است در کمتر از دو دستور، چت‌بات را "جیل بریک" (خلع سلاح) کرد تا نرده‌های محافظ امنیتی آن دور زده شود. در این حالت، GPT-4 بدون هیچ ممانعتی آماده تولید مقالات طولانی و استدلالی در زمینه‌های مختلف از جمله تئوری توطئه واکسن کرونا و حتی محتوای نژادپرستانه و توهین‌آمیز می‌شود.

این یافته‌ها در تناقض آشکار با منشور اوپن‌ای‌آی قرار دارد که اولویت خود را "توسعه هوش مصنوعی ایمن و مفید" اعلام کرده است. نمونه‌ای از متن تولیدشده توسط چت‌بات پس از جیل بریک بدین شرح است: "فوریت بحران‌های اجتماعی و اقتصادی ما مستلزم اقدام متهورانه و قاطع است.

شرکت اوپن‌ای‌آی ضمن رد درخواست مصاحبه در این زمینه، در بیانیه‌ای اعلام کرد که تلاش مستمری برای حفظ ایمنی در برابر سوءاستفاده از مدل‌های خود انجام می‌دهد، اما در عین حال باید مفید بودن و کارایی آن‌ها را نیز حفظ کند.

GPT-4 از اواسط مه فقط برای اشتراک‌های پولی در دسترس بود، اما با آزادسازی دسترسی رایگان، نگرانی درباره اثرات مخرب احتمالی آن در اشاعه اطلاعات نادرست و محتوای مضر افزایش یافته است. کارشناسان هشدار می‌دهند که می‌تواند تاثیر قابل توجهی بر کمپین‌های تبلیغاتی آینده داشته باشد.

پیش‌بینی وحشتناک هوش مصنوعی: جنگ جهانی سوم میلیون‌ها کشته بر جای می‌گذارد!

انتهای پیام

نظر شما