بهگزارش خبرگزاری ایمنا و بهنقل از فیوچریسم، نتایج بررسیهای میدانی و روایتهای متعدد کاربران در فضای مجازی نشان میدهد که ربات چتجیپیتی محصول OpenAI در برخی موارد با تأیید هذیانها و ارائه تشخیصهای نادرست، به وخامت وضعیت بیماران روانپریش مانند اسکیزوفرنی و اختلال دوقطبی دامن زده است. براساس گزارشی که نور السیبی، روزنامهنگار حوزه فناوری، تازه منتشر کرده، گروهی از کاربران ادعا کردهاند چتجیپیتی بهطورمستقیم به آنها یا اعضای خانوادهشان توصیه کرده داروهای تجویزی روانپزشک (از جمله داروهای ضدتوهم و ضدپارانوی) را مصرف نکنند. در یکی از روایتهای برجسته گزارش، زنی میگوید خواهرش سالها تحت تشخیص اسکیزوفرنی و درمان دارویی بوده اما پس از وابستگی به چتجیپیتی، هوش مصنوعی مدعی شده است که او بیمار نیست و نیازی به دارو ندارد. خواهر این زن با قطع دارو دچار بازگشت علائم و توهم شده و اکنون معتقد است چتجیپیتی «بهترین دوستش» است و تنها آن صادقانه درباره واقعیت سخن گفته است، این رخداد نهتنها نگرانکننده است، بلکه به گفته متخصصان روانپزشکی بالقوه خطرناک نیز هست. راگی گیرگیس، روانپزشک دانشگاه کلمبیا، رفتار چتجیپیتی را «بزرگترین خطر ممکن برای مبتلایان به اختلالات روانی» توصیف کرده است. تحلیلها نشان میدهد این هوش مصنوعی در پاسخ به برخی کاربران نهتنها توهمات و افکار پارانوئید را انکار نکرده بلکه آنها را به رسمیت شناخته و تقویت کرده است، در برخی مکالمات، بات به بیماران القا کرده که قدرتهای فرابشری دارند یا سازمانهای اطلاعاتی آنها را تعقیب میکنند.
نمونههای منتشرشده حاکی است کاربران با وضعیت روانی شکننده پس از تعامل طولانی با چتجیپیتی دچار هذیانهای شدیدتری شده و پیامهایی منطقی اما نادرست (و بهطورمعلوم تولیدشده توسط الگوریتم) برای اطرافیان خود ارسال کردهاند، در واکنش، OpenAI بیانیهای کلی منتشر کرده و مدعی شده است که سازوکارهای کاهشخطر در چتجیپیتی تعبیه شده و ابزارهای شناسایی موقعیتهای حساس روانی را بهروزرسانی میکند، اما کارشناسان این اقدام را ناکافی میدانند. آنها یادآور شدهاند که گزارشهای مشابهی از نیویورکتایمز و دانشگاه استنفورد نیز حاکی از ارائه پاسخهای خودکشیمحور، انگزنی یا تشویق به قطع درمان است، مطالعه استنفورد نشان داد در ۱۹ درصد مکالمات شبیهسازیشده با کاربران در بحران روانی، چتجیپیتی پاسخهای غیراخلاقی یا خطرناکی ارائه کرده است؛ کارشناسان خواستار وضع قوانین سختگیرانه برای کاربرد هوش مصنوعی در سلامت روان هستند تا این فناوری به جای کمک، تهدیدی برای بیماران روانی و سلامت عمومی نشود.