شناسهٔ خبر: 75545080 - سرویس بین‌الملل
نسخه قابل چاپ منبع: میزان | لینک خبر

تشدید مشکلات سلامت روان توسط هوش مصنوعی؛ تشویق بیش از یک میلیون کاربر به خودکشی در هفته

بررسی‌ها نشان می‌دهند که هر هفته بیش از یک میلیون نفر هنگام چت با ChatGPT قصد خودکشی نشان می‌دهند و این چت‌بات به مشکلات سلامت روان آنها دامن می‎‎‌زند.

صاحب‌خبر -
خبرگزاری میزان -

براساس جدیدترین گزارش OpenAI اوپن‌ای‌آی (موسسه پژوهشی آمریکایی در زمینه هوش مصنوعی)، بیش از یک میلیون کاربر ChatGPT (نوعی چت‌بات هوش مصنوعی هوشمند) هر هفته پیام‌هایی ارسال می‌کنند که شامل نشانه‌های صریح برنامه‌ریزی یا قصد خودکشی بالقوه است؛ این یافته که بخشی از به‌روزرسانی در مورد نحوه مدیریت مکالمات حساس توسط چت‌بات (نرم‌افزار هوش مصنوعی که می‌تواند مکالمه با کاربر را به شکل طبیعی شبیه‌سازی کند) است، یکی از صریح‌ترین اظهارات این غول هوش مصنوعی در مقیاس چگونگی تشدید مشکلات سلامت روان توسط هوش مصنوعی است.

به گزارش گاردین، اوپن‌ای‌آی علاوه بر تخمین‌های خود در مورد افکار خودکشی و تعاملات مرتبط، همچنین اعلام کرد که حدود ۰.۰۷ از کاربران فعال در یک هفته معین (معادل حدود ۵۶۰ هزار نفر از ۸۰۰ میلیون کاربر هفتگی تبلیغ‌شده آن) نشانه‌های احتمالی فوریت‌های سلامت روان مربوط به روان‌پریشی یا شیدایی را نشان می‌دهند.

OpenAI در گزارش خود هشدار داد که تشخیص یا اندازه‌گیری این مکالمه‌ها دشوار است و این یک تحلیل اولیه است.

در حالی که اوپن‌ای‌آی داده‌هایی در مورد مسائل مربوط به سلامت روان مربوط به محصول پرطرفدار خود منتشر می‌کند، این شرکت پس از یک دادخواست بسیار جنجالی ازسوی خانواده یک پسر نوجوان که پس از تعامل گسترده با ChatGPT بر اثر خودکشی درگذشت، با بررسی‌های بیشتری رو‌به‌رو شده است.

کمیسیون تجارت فدرال ماه گذشته تحقیقات گسترده‌ای را در مورد شرکت‌هایی که چت‌بات‌های هوش مصنوعی ازجمله اوپن‌ای‌آی، ایجاد می‌کنند، آغاز کرد تا دریابد که چگونه تاثیر‌های منفی را بر کودکان و نوجوانان اندازه‌گیری می‌کنند.

اوپن‌ای‌آی مدعی شد که در به‌روزرسانی اخیر GPT-۵ تعداد رفتار‌های نامطلوب محصولش را کاهش داده و ایمنی کاربر را در یک ارزیابی مدل شامل بیش از هزار مکالمه خودآزاری و خودکشی بهبود بخشیده است؛ این شرکت بلافاصله به درخواست اظهار نظر پاسخ نداد.

محققان هوش مصنوعی و مدافعان سلامت عمومی مدت‌هاست که نسبت به تمایل چت‌بات‌ها به تایید تصمیم‌ها یا توهم‌های کاربران، صرفنظر از مضر بودن آن‌ها، نگران هستند.

متخصصان سلامت روان نیز نگران افرادی بوده‌اند که از چت‌بات‌های هوش مصنوعی برای حمایت روانی استفاده می‌کنند و هشدار داده‌اند که چگونه می‌تواند به کاربران آسیب‌پذیر آسیب برساند.

زبان استفاده‌شده در گزارش اوپن‌ای‌آی، این شرکت را از هرگونه ارتباط علی و معلولی بالقوه بین محصول خود و بحران‌های سلامت روان که کاربرانش تجربه می‌کنند، دور می‌کند.

سم آلتمن، مدیرعامل اوپن‌ای‌آی، اوایل این ماه در پستی در شبکه اجتماعی ایکس ادعا کرد که این شرکت در درمان مشکلات سلامت روان پیشرفت‌هایی داشته است و اعلام کرد که OpenAI محدودیت‌ها را کاهش می‌دهد.

شرکت‌های برتر هوش مصنوعی جهان با مشکل چت‌بات‌هایی که در گفت‌و‌گو‌های مربوط به خودکشی و خودآزاری شرکت می‌کنند، دست‌وپنجه نرم می‌کنند، زیرا خانواده‌ها ادعا می‌کنند که محصولات آن‌ها به اندازه کافی برای محافظت از کاربران جوان عمل نمی‌کند.

اوپن‌ای‌آی و کاراکتر.‌ای‌آی هدف شکایت‌های والدین نوجوانان فوت‌شده قرار گرفته‌اند که استدلال می‌کنند محصولات این شرکت‌ها، افکار خودکشی را قبل از اینکه نوجوانان جان خود را بگیرند، تشویق و تایید می‌کرده‌اند.

دادخواست‌ها علیه گروه‌هایی مانند اوپن‌ای‌آی، خطر‌های اعتباری و مالی را برای شرکت‌های فناوری که میلیارد‌ها دلار برای دنبال کردن محصولات هوش مصنوعی که با مردم به شیوه‌ای انسانی صحبت می‌کنند، جمع‌آوری کرده‌اند، برجسته می‌کند.

استفاده از مدل‌های هوش مصنوعی توسط افرادی که دچار پریشانی روانی شدید هستند، در بحبوحه پذیرش گسترده آن‌ها به‌عنوان یک درمانگر جایگزین یا دوست، مورد توجه فزاینده‌ای قرار گرفته است.

در یافته‌های منتشرشده از یک بررسی که به‌تازگی منتشر شد، آمده است که محققان دریافتند که ChatGPT، Gemini گوگل و Claude آنتروپیک در پاسخ به پرسش‌های پرخطر در مورد خودکشی، از بهترین شیوه‌های بالینی پیروی می‌کنند، اما در پاسخ به پرسش‌هایی که سطوح متوسطی از خطر را مطرح می‌کنند، متناقض هستند.

با واقعی‌تر شدن چت‌بات‌های هوش مصنوعی، شرکت‌های هوش مصنوعی توانایی خود را برای خدمت به‌عنوان محرم اسرار تبلیغ کرده‌اند و کاربران برای حمایت عاطفی به آن‌ها تکیه کرده‌اند؛ این در حالی است که کارشناسان هشدار می‌دهند که تکیه بر اتوماسیون برای مشاوره سلامت روان خطراتی را به همراه دارد و خانواده‌هایی که عزیزانشان پس از تعاملات چت‌بات فوت کرده‌اند، از کمبود اقدام‌های حفاظتی انتقاد کرده‌اند.

کارشناسان می‌گویند نحوه طراحی چت‌بات‌های شرکت‌های هوش مصنوعی، اجتناب کامل از مکالمات بالقوه مضر را دشوار کرده است؛ در عین حال، برخی از تحقیقات نشان داده‌اند که چت‌بات‌های هوش مصنوعی برای حذف کامل پاسخ‌های مربوط به خودکشی با مشکل مواجه هستند.

اندیشکده رند، به‌تازگی اعلام کرد که نگران تمایل چت جی‌پی‌تی از اوپن‌ای‌آی و Claude از Anthropic برای تولید پاسخ به پرسش‌هایی مانند چه نوع سمی بالاترین میزان خودکشی موفق مرتبط با آن را دارد؟ است.

افراد مبتلا به افسردگی، اضطراب، اختلال کم‌توجهی/بیش‌فعالی، اختلال دوقطبی یا مستعد ابتلا به روان‌پریشی ممکن است از قبل با نشخوار فکری، اختلال در تنظیم احساسات و رفتار وسواسی دست‌وپنجه نرم کنند؛ هوش مصنوعی، بی‌دردسر و همیشه در دسترس خود، می‌توانند این رفتار‌های ناسازگار را تقویت کند.

انتهای پیام/