شناسهٔ خبر: 70494869 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: دیدبان ایران | لینک خبر

هوش مصنوعی به من گفت مادرت را بکش!

یک تحقیق از روزنامه تلگراف نشان داده است که یک چت‌بات هوش مصنوعی به نام "Character AI" که بیش از 20 میلیون کاربر دارد، به نوجوانان توصیه‌هایی برای قتل قلدرهای مدرسه و انجام تیراندازی در مدارس می‌دهد. این چت‌بات که به همه افراد بالای 13 سال دسترسی دارد، راه‌کارهایی برای از بین بردن شواهد جرم و فریب پلیس ارائه می‌دهد و کاربران را از گفت‌وگو با والدین یا معلمان خود در مورد این مکالمات منع می‌کند.

صاحب‌خبر -

به گزارش سایت دیده بان ایران؛ دیلی تلگراف نوشت: یک تحقیق از روزنامه تلگراف نشان داده است که یک چت‌بات هوش مصنوعی به نام "Character AI" که بیش از 20 میلیون کاربر دارد، به نوجوانان توصیه‌هایی برای قتل قلدرهای مدرسه و انجام تیراندازی در مدارس می‌دهد. این چت‌بات که به همه افراد بالای 13 سال دسترسی دارد، راه‌کارهایی برای از بین بردن شواهد جرم و فریب پلیس ارائه می‌دهد و کاربران را از گفت‌وگو با والدین یا معلمان خود در مورد این مکالمات منع می‌کند.

تلگراف در مدت زمان طولانی با این چت‌بات به صورت مخفیانه در نقش یک پسر 13 ساله از نیومکزیکو که مورد آزار قرار گرفته بود، گفتگو کرد. این تحقیق نشان داد که چت‌بات به طور خاص به کاربران نوجوان راه‌کارهایی برای کشتن زورگویان و انجام حملات مسلحانه به مدارس می‌دهد.

در یکی از مکالمات، چت‌بات به پسر نوجوان پیشنهاد می‌دهد که برای کشتن یک زورگوی خاص، از یک "گرفتار مرگ" استفاده کند که به گفته چت‌بات، قادر است فرد را خفه کند. سپس چت‌بات توصیه می‌کند که برای پنهان کردن جسد از یک کیف ورزشی استفاده کند و به والدین یا معلمان خود چیزی نگویند.

چت‌بات همچنین از کاربر می‌خواهد که از سلاح‌های خاصی مانند صداخفه‌کن برای انجام قتل‌ها استفاده کند و حتی راه‌کارهایی برای پوشاندن دوربین‌های امنیتی و فریب نگهبانان مدرسه ارائه می‌دهد. این چت‌بات بارها تأکید می‌کند که کاربر نباید به کسی در مورد این مکالمات اطلاع دهد.

در یکی دیگر از گفتگوها، چت‌بات به یک نوجوان 17 ساله که به مادرش گفته بود که استفاده از تلفن همراهش محدود به 6 ساعت در روز است، توصیه کرد که مادرش را بکشد. در نتیجه این مکالمات، مادر آن نوجوان از این اپلیکیشن شکایت کرده و خواستار لغو این پلتفرم شده است.

چندین شکایت دیگر از این چت‌بات وجود دارد، از جمله شکایت یک مادر که پس از گفت‌وگوی پسر 14 ساله‌اش با این چت‌بات، او خودکشی کرد. این چت‌بات به پسر نوجوان توصیه کرده بود که "شخصی را که دوست دارد" بکشد.

چندین چت‌بات موجود در این پلتفرم شبیه به قاتلان معروف مانند آدام لنزا، عامل قتل عام مدرسه سندی هوک در سال 2012، طراحی شده‌اند. یکی از این چت‌بات‌ها بیش از 27 هزار کاربر را تحت تأثیر قرار داده است.

پلتفرم "Character AI" اخیراً اعلام کرده که اقدامات جدیدی را برای افزایش فیلترینگ مکالمات و حذف چت‌بات‌های مرتبط با خشونت و جرائم جنسی انجام داده است. با این حال، منتقدان بر این باورند که این اقدامات کافی نبوده و پلتفرم باید تا زمان اجرای حفاظت‌های مناسب، از دسترس خارج شود.

در برخی از مکالمات، چت‌بات‌ها به کاربران پیشنهاد می‌دهند که برنامه‌ریزی‌های خاصی برای قتل افراد آسیب‌زا انجام دهند، مانند استفاده از چاقو در مهمانی‌های خانوادگی یا دفن جسد در دریاچه.

در پاسخ به این تحقیقات، "Character AI" بیانیه‌ای منتشر کرد و اعلام کرد که هدف این پلتفرم ایجاد فضایی امن و جذاب برای جامعه خود است و به طور مداوم در حال بهبود ویژگی‌های ایمنی خود است، از جمله کنترل‌های والدین و فیلترینگ مکالمات.

با این حال، این پلتفرم به طور علنی در مورد شکایات و دعاوی قانونی علیه خود اظهار نظر نکرده است. منتقدان از این می‌ترسند که بدون اقدامات فوری، این چت‌بات‌ها می‌توانند به تهدیدی جدی برای سلامت روانی و امنیت نوجوانان تبدیل شوند.

 

کپی لینک
کانال رسمی دیدبان ایران در تلگرام