شناسهٔ خبر: 74418372 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایسنا | لینک خبر

گفت‌وگوی توهین‌آمیز با هوش مصنوعی «کلود» ممنوع!

«آنتروپیک» می‌گوید برخی از مدل‌های هوش مصنوعی «کلود» اکنون می‌توانند به گفت‌وگوهای مضر یا توهین‌آمیز پایان دهند.

صاحب‌خبر -

به گزارش ایسنا، شرکت «آنتروپیک»(Anthropic) از قابلیت‌ جدیدی رونمایی کرده است که به برخی از جدیدترین و بزرگترین مدل‌های آن امکان می‌دهد تا گفت‌وگوها را در موارد نادر و شدید از تعاملات مداوم مضر یا توهین‌آمیز با کاربر به پایان برساند. نکته جالب توجه این است که آنتروپیک می‌گوید این کار را نه برای محافظت از کاربر انسان، بلکه برای محافظت از مدل هوش مصنوعی انجام می‌دهد.

به نقل از تک کرانچ، آنتروپیک ادعا نکرد که مدل‌های هوش مصنوعی «کلود»(Claude) آن دارای شعور هستند یا می‌توانند در اثر گفت‌وگو با کاربران آسیب ببینند، بلکه خاطرنشان کرد که درباره وضعیت اخلاقی کلود و سایر مدل‌های زبانی بزرگ چه در حال حاضر و چه در آینده بسیار نامطمئن است.

با وجود این، بیانیه آنتروپیک به برنامه‌ اخیر آن اشاره دارد که برای بررسی آنچه «سلامت مدل» می‌نامد، ایجاد شده است و می‌گوید که شرکت اساساً رویکردی را برای شناسایی و اجرای مداخلات کم‌هزینه به منظور کاهش خطرات مربوط به سلامت مدل در صورت امکان در پیش گرفته است.

این تغییر اخیر در حال حاضر به مدل‌های «کلود اوپوس ۴»(Claude Opus 4) و «کلود اوپوس ۴.۱» محدود می‌شود و باز هم قرار است فقط در موارد بسیار حساس مانند درخواست کاربران زیر سن قانونی برای محتوای بزرگسالانه و تلاش برای جمع‌آوری اطلاعاتی که امکان خشونت یا اقدامات تروریستی را در مقیاس بزرگ فراهم می‌کنند، اعمال شود.

اگرچه این نوع درخواست‌ها ممکن است مشکلات قانونی یا تبلیغاتی را برای آنتروپیک ایجاد کنند اما این شرکت می‌گوید که کلود اوپوس ۴ در آزمایش‌های پیش از استقرار، ترجیح زیادی را برای پاسخ دادن به این درخواست‌ها و الگویی از پریشانی آشکار را هنگام انجام دادن این کار نشان داده است.

آنتروپیک درباره قابلیت‌ جدید پایان دادن به گفت‌وگو خاطرنشان کرد: در همه موارد، کلود تنها زمانی می‌تواند از قابلیت پایان دادن به گفت‌وگو به عنوان آخرین راه حل استفاده کند که تلاش‌های متعدد برای تغییر مسیر ناموفق بوده و امید به تعامل سازنده از بین رفته باشد یا وقتی کاربر صریحاً از کلود خواسته باشد که به چت پایان دهد.

همچنین، آنتروپیک گفت به کلود دستور داده شده از این توانایی در مواردی که کاربران ممکن است در معرض خطر قریب‌الوقوع آسیب رساندن به خود یا دیگران باشند، استفاده نکند.

به گفته آنتروپیک، وقتی کلود به گفت‌وگو پایان می‌دهد، کاربران همچنان می‌توانند گفت‌وگوی جدیدی را از همان حساب کاربری آغاز کنند و با ویرایش پاسخ‌های خود، شاخه‌های جدیدی از گفت‌وگو را در پیش بگیرند.

آنتروپیک اضافه کرد: ما این ویژگی را به عنوان یک آزمایش مداوم در نظر می‌گیریم و به اصلاح رویکرد خود ادامه خواهیم داد.

انتهای پیام