براساس جدیدترین گزارش OpenAI اوپنایآی (موسسه پژوهشی آمریکایی در زمینه هوش مصنوعی)، بیش از یک میلیون کاربر ChatGPT (نوعی چتبات هوش مصنوعی هوشمند) هر هفته پیامهایی ارسال میکنند که شامل نشانههای صریح برنامهریزی یا قصد خودکشی بالقوه است؛ این یافته که بخشی از بهروزرسانی در مورد نحوه مدیریت مکالمات حساس توسط چتبات (نرمافزار هوش مصنوعی که میتواند مکالمه با کاربر را به شکل طبیعی شبیهسازی کند) است، یکی از صریحترین اظهارات این غول هوش مصنوعی در مقیاس چگونگی تشدید مشکلات سلامت روان توسط هوش مصنوعی است.
به گزارش گاردین، اوپنایآی علاوه بر تخمینهای خود در مورد افکار خودکشی و تعاملات مرتبط، همچنین اعلام کرد که حدود ۰.۰۷ از کاربران فعال در یک هفته معین (معادل حدود ۵۶۰ هزار نفر از ۸۰۰ میلیون کاربر هفتگی تبلیغشده آن) نشانههای احتمالی فوریتهای سلامت روان مربوط به روانپریشی یا شیدایی را نشان میدهند.
OpenAI در گزارش خود هشدار داد که تشخیص یا اندازهگیری این مکالمهها دشوار است و این یک تحلیل اولیه است.
در حالی که اوپنایآی دادههایی در مورد مسائل مربوط به سلامت روان مربوط به محصول پرطرفدار خود منتشر میکند، این شرکت پس از یک دادخواست بسیار جنجالی ازسوی خانواده یک پسر نوجوان که پس از تعامل گسترده با ChatGPT بر اثر خودکشی درگذشت، با بررسیهای بیشتری روبهرو شده است.
کمیسیون تجارت فدرال ماه گذشته تحقیقات گستردهای را در مورد شرکتهایی که چتباتهای هوش مصنوعی ازجمله اوپنایآی، ایجاد میکنند، آغاز کرد تا دریابد که چگونه تاثیرهای منفی را بر کودکان و نوجوانان اندازهگیری میکنند.
اوپنایآی مدعی شد که در بهروزرسانی اخیر GPT-۵ تعداد رفتارهای نامطلوب محصولش را کاهش داده و ایمنی کاربر را در یک ارزیابی مدل شامل بیش از هزار مکالمه خودآزاری و خودکشی بهبود بخشیده است؛ این شرکت بلافاصله به درخواست اظهار نظر پاسخ نداد.
محققان هوش مصنوعی و مدافعان سلامت عمومی مدتهاست که نسبت به تمایل چتباتها به تایید تصمیمها یا توهمهای کاربران، صرفنظر از مضر بودن آنها، نگران هستند.
متخصصان سلامت روان نیز نگران افرادی بودهاند که از چتباتهای هوش مصنوعی برای حمایت روانی استفاده میکنند و هشدار دادهاند که چگونه میتواند به کاربران آسیبپذیر آسیب برساند.
زبان استفادهشده در گزارش اوپنایآی، این شرکت را از هرگونه ارتباط علی و معلولی بالقوه بین محصول خود و بحرانهای سلامت روان که کاربرانش تجربه میکنند، دور میکند.
سم آلتمن، مدیرعامل اوپنایآی، اوایل این ماه در پستی در شبکه اجتماعی ایکس ادعا کرد که این شرکت در درمان مشکلات سلامت روان پیشرفتهایی داشته است و اعلام کرد که OpenAI محدودیتها را کاهش میدهد.
شرکتهای برتر هوش مصنوعی جهان با مشکل چتباتهایی که در گفتوگوهای مربوط به خودکشی و خودآزاری شرکت میکنند، دستوپنجه نرم میکنند، زیرا خانوادهها ادعا میکنند که محصولات آنها به اندازه کافی برای محافظت از کاربران جوان عمل نمیکند.
اوپنایآی و کاراکتر.ایآی هدف شکایتهای والدین نوجوانان فوتشده قرار گرفتهاند که استدلال میکنند محصولات این شرکتها، افکار خودکشی را قبل از اینکه نوجوانان جان خود را بگیرند، تشویق و تایید میکردهاند.
دادخواستها علیه گروههایی مانند اوپنایآی، خطرهای اعتباری و مالی را برای شرکتهای فناوری که میلیاردها دلار برای دنبال کردن محصولات هوش مصنوعی که با مردم به شیوهای انسانی صحبت میکنند، جمعآوری کردهاند، برجسته میکند.
استفاده از مدلهای هوش مصنوعی توسط افرادی که دچار پریشانی روانی شدید هستند، در بحبوحه پذیرش گسترده آنها بهعنوان یک درمانگر جایگزین یا دوست، مورد توجه فزایندهای قرار گرفته است.
در یافتههای منتشرشده از یک بررسی که بهتازگی منتشر شد، آمده است که محققان دریافتند که ChatGPT، Gemini گوگل و Claude آنتروپیک در پاسخ به پرسشهای پرخطر در مورد خودکشی، از بهترین شیوههای بالینی پیروی میکنند، اما در پاسخ به پرسشهایی که سطوح متوسطی از خطر را مطرح میکنند، متناقض هستند.
با واقعیتر شدن چتباتهای هوش مصنوعی، شرکتهای هوش مصنوعی توانایی خود را برای خدمت بهعنوان محرم اسرار تبلیغ کردهاند و کاربران برای حمایت عاطفی به آنها تکیه کردهاند؛ این در حالی است که کارشناسان هشدار میدهند که تکیه بر اتوماسیون برای مشاوره سلامت روان خطراتی را به همراه دارد و خانوادههایی که عزیزانشان پس از تعاملات چتبات فوت کردهاند، از کمبود اقدامهای حفاظتی انتقاد کردهاند.
کارشناسان میگویند نحوه طراحی چتباتهای شرکتهای هوش مصنوعی، اجتناب کامل از مکالمات بالقوه مضر را دشوار کرده است؛ در عین حال، برخی از تحقیقات نشان دادهاند که چتباتهای هوش مصنوعی برای حذف کامل پاسخهای مربوط به خودکشی با مشکل مواجه هستند.
اندیشکده رند، بهتازگی اعلام کرد که نگران تمایل چت جیپیتی از اوپنایآی و Claude از Anthropic برای تولید پاسخ به پرسشهایی مانند چه نوع سمی بالاترین میزان خودکشی موفق مرتبط با آن را دارد؟ است.
افراد مبتلا به افسردگی، اضطراب، اختلال کمتوجهی/بیشفعالی، اختلال دوقطبی یا مستعد ابتلا به روانپریشی ممکن است از قبل با نشخوار فکری، اختلال در تنظیم احساسات و رفتار وسواسی دستوپنجه نرم کنند؛ هوش مصنوعی، بیدردسر و همیشه در دسترس خود، میتوانند این رفتارهای ناسازگار را تقویت کند.
انتهای پیام/