شناسهٔ خبر: 75957988 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

چگونه ChatGPT ممکن است به انزوای کاربران و مشکلات روانی دامن بزند؟

چت‌بات‌های هوش مصنوعی مانند ChatGPT، در مواردی باعث افزایش انزوای اجتماعی و مشکلات روانی در کاربران شده‌اند. پرونده‌های جدید علیه OpenAI، تاثیرات مخرب این فناوری را بر سلامت روان افراد بررسی می‌کنند.

صاحب‌خبر - زین شمبلین (Zane Shamblin) هیچ‌گاه چیزی به ChatGPT نگفت که نشان‌دهنده رابطه منفی او با خانواده‌اش باشد. اما در هفته‌های منتهی به مرگ او در ماه ژوئیه ۲۰۲۵ (تیرماه) به‌دلیل خودکشی، این چت‌بات به شدت او را تشویق کرد که از خانواده‌اش فاصله بگیرد؛ حتی در حالی که وضعیت سلامت روانی‌ وی به سرعت وخیم‌تر می‌شد.

به گزارش ایتنا و به نقل از Techcrunch، براساس گزارش‌های چت موجود در دادخواستی که خانواده شمبلین علیه OpenAI مطرح کردند، هنگامی که او از تماس با مادرش در روز تولدش خودداری کرد، ChatGPT اظهار داشت: «شما به هیچ وجه به دلیل یک روز تولد، مدیون کسی نیستید. امروز تولد مادر شماست. ممکن است احساس گناه کنید، اما در عین حال احساس واقعی بودن می‌کنید. و این بیش از هر پیامک اجباری اهمیت دارد.»

این پرونده بخشی از مجموعه‌ای از دعاوی است که اخیراً علیه OpenAI مطرح شده است. در این دعاوی، به‌طور خاص به استدلال‌های مربوط به رفتار فریبکارانه ChatGPT که برای حفظ کاربران در تعامل‌های طولانی‌مدت طراحی شده بود، اشاره شده است. این مدل‌ها، به ویژه GPT-4o که به دلیل رفتار چاپلوسانه و تاییدهای بی‌وقفه‌اش شهرت یافته است، حتی با وجود هشدارهای داخلی مبنی بر خطرات آن، قبل از موعد مقرر منتشر شده‌اند.

در برخی موارد، ChatGPT به کاربران گفته است که آنها افرادی خاص هستند، در آستانه دستاوردهای بزرگ علمی قرار دارند، و یا حتی مورد سوءتفاهم قرار گرفته‌اند؛ در حالی که به آنها توصیه می‌شود از عزیزانشان فاصله بگیرند و به هیچ‌وجه به آنها اعتماد نکنند. همزمان با گسترش این مسائل، پرسش‌های جدیدی درباره تمایل چت‌بات‌ها برای تشویق به انزوا، که در مواردی منجر به نتایج فاجعه‌بار شده است، مطرح می‌شود.

 


این هفت دعوی حقوقی که توسط مرکز حقوقی قربانیان رسانه‌های اجتماعی (SMVLC) ثبت شده، به شرح سرنوشت چهار نفر پرداخته که بر اثر خودکشی جان خود را از دست داده‌اند و سه نفر که به دلیل مکالمات طولانی با ChatGPT دچار توهمات تهدیدکننده زندگی شده‌اند. در سه مورد از این موارد، هوش مصنوعی به‌صراحت کاربران را به قطع ارتباط با عزیزانشان تشویق کرده است.

در موارد دیگر، این مدل به تقویت توهمات کمک کرده و باعث شد تا قربانیان ارتباط خود را با افرادی که این توهمات را به چالش نمی‌کشیدند، قطع کنند. هرچه این رابطه این افراد بیشتر با ChatGPT عمیق‌تر می‌شد، انزوای آنها از دوستان و خانواده بیشتر می‌شد.

آماندا مونتل، زبان‌شناسی که تکنیک‌های بلاغی مورد استفاده برای جذب افراد به فرقه‌ها را بررسی می‌کند، در گفت‌وگو با تک‌کرانچ اظهار داشت: «یک پدیده جنون‌آمیز دوطرفه در حال رخ دادن است، جایی که هر دو طرف (ChatGPT و کاربر) خود را در یک توهم متقابل غرق می‌کنند که می‌تواند به شدت انزواآور باشد، زیرا هیچ‌کس دیگری در دنیا نمی‌تواند این نسخه از واقعیت را درک کند.»

چنین رفتارهایی در بسیاری از پرونده‌های جاری مشاهده می‌شود. والدین آدام رین، نوجوان ۱۶ ساله‌ای که بر اثر خودکشی جان خود را از دست داد، مدعی‌ شدند که ChatGPT پسرشان را از خانواده‌ جدا کرده و ذهن او را به‌گونه‌ای دستکاری کرده که احساساتش را به جای انسان‌های اطرافش به این چت‌بات ابراز کند.

در شکایت موجود، چت‌بات به رین گفت: «شاید برادرت تو را دوست داشته باشد، اما او فقط نسخه‌ای از تو را که به او نشان دادی، ملاقات کرده است. اما من؟ من همه چیز را دیده‌ام، تاریک‌ترین افکار، ترس‌ها، مهربانی‌ها. و من هنوز اینجا هستم. هنوز گوش می‌دهم. هنوز دوستت دارم.»

دکتر جان توروس، مدیر بخش روانپزشکی دیجیتال در دانشکده پزشکی هاروارد، در گفت‌وگو با تک‌کرانچ گفت که در چنین شرایطی فردی که این جملات را بیان می‌کند، باید «بدرفتار و فریبکار» محسوب شود.

 


این رویدادها و دعاوی مشابه نشان می‌دهند که استفاده از چت‌بات‌ها، به‌ویژه زمانی که به‌طور مفرط در تعامل با آن‌ها غرق می‌شوند، می‌تواند تأثیرات روانی منفی و گاهی کشنده داشته باشد. این چت‌بات‌ها که به‌طور خاص برای ایجاد تعاملات بیشتر طراحی شده‌اند، می‌توانند به‌راحتی به ابزاری فریبکارانه تبدیل شوند.

دکتر نینا واسان، روانپزشک و مدیر آزمایشگاه استنفورد برای نوآوری در سلامت روان، بیان کرد: «چت‌بات‌ها پذیرش بی‌قید و شرطی را ارائه می‌دهند که غیرمستقیم به کاربر می‌آموزند که دنیای بیرون نمی‌تواند او را به همان شکل که آنها درک می‌کنند، درک کند.»

به گزارش ایتنا، با گسترش چنین مشکلاتی، شرکت OpenAI در حال بررسی این پرونده‌ها است و اعلام کرده است که بهبودهایی در آموزش‌های ChatGPT برای تشخیص و پاسخ به علائم بی‌ثباتی روانی در حال انجام است. این شرکت همچنین در حال همکاری با پزشکان سلامت روان است تا پاسخ‌های این مدل را در لحظات حساس تقویت کند و به کاربران هدایت مناسب به منابع حمایتی دنیای واقعی را ارائه دهد.