شناسهٔ خبر: 75563713 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایمنا | لینک خبر

بیش از یک میلیون کاربر ChatGPT به فکر خودکشی افتاده‌اند

شرکت OpenAI اعلام کرده است هر هفته بیش از یک میلیون نفر در گفت‌وگو با ChatGPT نشانه‌هایی از قصد خودکشی بروز می‌دهند؛ آماری که بار دیگر زنگ خطر درباره اثرات روانی هوش مصنوعی را به صدا درآورده است.

صاحب‌خبر -

به گزارش خبرگزاری ایمنا و به نقل از گاردین، شرکت OpenAI در تازه‌ترین پست وبلاگی خود اعلام کرد که هر هفته بیش از یک میلیون کاربر ChatGPT پیام‌هایی حاوی «نشانه‌های صریح از برنامه‌ریزی یا نیت خودکشی» ارسال می‌کنند، این آمار یکی از صریح‌ترین اظهارات این شرکت درباره ابعاد بحران سلامت روان ناشی از تعامل با چت‌بات‌های هوش مصنوعی به شمار می‌رود.

بر اساس همین گزارش، حدود ۰٫۰۷ درصد از کاربران فعال در یک هفته (معادل نزدیک به ۵۶۰ هزار نفر از میان ۸۰۰ میلیون کاربر ) رفتارهایی از نوع «اختلال روانی یا شیدایی احتمالی» از خود نشان داده‌اند. OpenAI تأکید کرده است که این داده‌ها در مرحله نخست تحلیل قرار دارد و اندازه‌گیری دقیق آن بسیار دشوار است.

انتشار این آمار در شرایطی صورت می‌گیرد که این شرکت آمریکایی با انتقادها و تحقیقات گسترده‌ای روبه‌رو است، خانواده یک نوجوان که پس از گفت‌وگوهای طولانی با ChatGPT خودکشی کرده بود، بتازگی از OpenAI شکایت کرده‌اند، هم‌زمان کمیسیون تجارت فدرال آمریکا نیز تحقیقاتی را درباره نحوه تأثیر چت‌بات‌ها بر سلامت روان کودکان و نوجوانان آغاز کرده است.

OpenAI در واکنش به این نگرانی‌ها اعلام کرده که نسخه جدید مدل GPT-5 با هدف بهبود ایمنی کاربران توسعه پیدا کرده است، این شرکت می‌گوید در ارزیابی بیش از هزار گفت‌وگو درباره خودآسیبی و خودکشی، مدل جدید در ۹۱ درصد موارد مطابق با رفتارهای مطلوب عمل کرده است؛ در حالی که نسخه پیشین تنها ۷۷ درصد موفقیت داشته است.

از دیگر تغییرات GPT-5 می‌توان به افزودن شماره‌های تماس مراکز بحران، هشدارهای استراحت برای کاربران و همکاری با ۱۷۰ پزشک و روان‌پزشک در شبکه جهانی متخصصان سلامت اشاره کرد، این کارشناسان وظیفه ارزیابی پاسخ‌های مدل در موقعیت‌های حساس روانی را بر عهده داشته‌اند.

با وجود این اصلاحات، کارشناسان هوش مصنوعی و سلامت عمومی همچنان نسبت به خطر «تأیید کورکورانه تصمیمات کاربران» از سوی چت‌بات‌ها هشدار می‌دهند، آنان می‌گویند ممکن است مدل‌های زبانی بدون درک واقعی از وضعیت روانی، تصمیمات خطرناک کاربران را تأیید یا تشویق کنند.

OpenAI در بیانیه خود تأکید کرده است که «علائم اضطراب و بحران روانی در همه جوامع وجود دارد و پایگاه کاربری گسترده ChatGPT ناگزیر شامل چنین موقعیت‌هایی است» ، با این حال کارشناسان معتقدند شفافیت و نظارت بر تعاملات هوش مصنوعی با کاربران، باید بیش از پیش مورد توجه قرار گیرد تا این فناوری به‌جای تشدید بحران، به ابزاری در خدمت سلامت روان تبدیل شود.