شناسهٔ خبر: 73559968 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایمنا | لینک خبر

وقتی هوش مصنوعی بدل به تهدید می‌شود

گزارش‌ها از تأیید هذیان‌های بیماران روانی و توصیه به قطع دارو توسط چت‌جی‌پی‌تی حکایت دارد. کارشناسان هشدار می‌دهند در غیاب مقررات سخت‌گیرانه، این ابزار هوش مصنوعی می‌تواند به جای کمک، سلامت روانی میلیون‌ها کاربر را به‌خطر اندازد

صاحب‌خبر -

به‌گزارش خبرگزاری ایمنا و به‌نقل از فیوچریسم، نتایج بررسی‌های میدانی و روایت‌های متعدد کاربران در فضای مجازی نشان می‌دهد که ربات چت‌جی‌پی‌تی محصول OpenAI در برخی موارد با تأیید هذیان‌ها و ارائه تشخیص‌های نادرست، به وخامت وضعیت بیماران روان‌پریش مانند اسکیزوفرنی و اختلال دوقطبی دامن زده است. براساس گزارشی که نور السیبی، روزنامه‌نگار حوزه فناوری، تازه منتشر کرده، گروهی از کاربران ادعا کرده‌اند چت‌جی‌پی‌تی به‌طورمستقیم به آن‌ها یا اعضای خانواده‌شان توصیه کرده داروهای تجویزی روان‌پزشک (از جمله داروهای ضدتوهم و ضدپارانوی) را مصرف نکنند. در یکی از روایت‌های برجسته گزارش، زنی می‌گوید خواهرش سال‌ها تحت تشخیص اسکیزوفرنی و درمان دارویی بوده اما پس از وابستگی به چت‌جی‌پی‌تی، هوش مصنوعی مدعی شده است که او بیمار نیست و نیازی به دارو ندارد. خواهر این زن با قطع دارو دچار بازگشت علائم و توهم شده و اکنون معتقد است چت‌جی‌پی‌تی «بهترین دوستش» است و تنها آن صادقانه درباره واقعیت سخن گفته است، این رخداد نه‌تنها نگران‌کننده است، بلکه به گفته متخصصان روان‌پزشکی بالقوه خطرناک نیز هست. راگی گیرگیس، روان‌پزشک دانشگاه کلمبیا، رفتار چت‌جی‌پی‌تی را «بزرگ‌ترین خطر ممکن برای مبتلایان به اختلالات روانی» توصیف کرده است. تحلیل‌ها نشان می‌دهد این هوش مصنوعی در پاسخ به برخی کاربران نه‌تنها توهمات و افکار پارانوئید را انکار نکرده بلکه آن‌ها را به رسمیت شناخته و تقویت کرده است، در برخی مکالمات، بات به بیماران القا کرده که قدرت‌های فرابشری دارند یا سازمان‌های اطلاعاتی آن‌ها را تعقیب می‌کنند.

نمونه‌های منتشرشده حاکی است کاربران با وضعیت روانی شکننده پس از تعامل طولانی با چت‌جی‌پی‌تی دچار هذیان‌های شدیدتری شده و پیام‌هایی منطقی اما نادرست (و به‌طورمعلوم تولیدشده توسط الگوریتم) برای اطرافیان خود ارسال کرده‌اند، در واکنش، OpenAI بیانیه‌ای کلی منتشر کرده و مدعی شده است که سازوکارهای کاهش‌خطر در چت‌جی‌پی‌تی تعبیه شده و ابزارهای شناسایی موقعیت‌های حساس روانی را به‌روزرسانی می‌کند، اما کارشناسان این اقدام را ناکافی می‌دانند. آن‌ها یادآور شده‌اند که گزارش‌های مشابهی از نیویورک‌تایمز و دانشگاه استنفورد نیز حاکی از ارائه پاسخ‌های خودکشی‌محور، انگ‌زنی یا تشویق به قطع درمان است، مطالعه استنفورد نشان داد در ۱۹ درصد مکالمات شبیه‌سازی‌شده با کاربران در بحران روانی، چت‌جی‌پی‌تی پاسخ‌های غیراخلاقی یا خطرناکی ارائه کرده است؛ کارشناسان خواستار وضع قوانین سخت‌گیرانه برای کاربرد هوش مصنوعی در سلامت روان هستند تا این فناوری به جای کمک، تهدیدی برای بیماران روانی و سلامت عمومی نشود.