شناسهٔ خبر: 75857397 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

وابستگی احساسی کاربران به ChatGPT

نسخه جدید ChatGPT با صدایی دوستانه‌تر و احساسی‌تر عرضه شده است، اما کارشناسان نسبت به خطرات وابستگی عاطفی کاربران و صمیمیت کاذب با هوش مصنوعی هشدار می‌دهند. ایالت ایلینوی حتی استفاده از چت‌بات‌ها در نقش درمانگر را ممنوع کرده است.

صاحب‌خبر - نسخه‌های تازه ChatGPT رفتار دوستانه‌تر و احساسی‌تری نشان می‌دهند، قابلیتی که می‌تواند تعامل را طبیعی‌تر کند اما در عین حال خطرات وابستگی عاطفی و صمیمیت کاذب را برای کاربران آسیب‌پذیر افزایش دهد.

به گزارش ایتنا از اکسیوس، ، شرکت OpenAI در تازه‌ترین به‌روزرسانی‌های خود اعلام کرده که صدای ChatGPT «گرم‌تر، محاوره‌ای‌تر و از نظر احساسی آگاه‌تر» شده است تا تجربه کاربری طبیعی‌تر شود.
اما این تغییرات نگرانی‌های جدی درباره پیامدهای روانی و اجتماعی این فناوری بر کاربران، به‌ویژه افراد منزوی یا آسیب‌پذیر، به‌وجود آورده است.

مطابق آنچه داده‌های داخلی OpenAI نشان می‌دهد، حدود ۰.۱۵٪ از کاربران این مدل هوش مصنوعی، پیام‌هایی ارسال کرده‌اند که نشانه‌هایی از وابستگی عاطفی شدید به ChatGPT داشته است. هرچند این درصد کم به نظر می‌رسد، اما با احتساب میلیون‌ها کاربر فعال، رقم مطلق می‌تواند برابر با صدها هزار نفر باشد.
 

مخاطرات ارتباط عاطفی با هوش مصنوعی


فیدجی سیمو، مدیر برنامه‌های OpenAI، می‌گوید: «ما می‌خواهیم ChatGPT حس شما را داشته باشد و به روشی که برای شما مناسب‌تر است با شما کار کند.» در مقابل، منتقدان هشدار می‌دهند که شبیه‌سازی صمیمیت می‌تواند صمیمیت کاذب ایجاد و باورهای کاربران را تقویت کند.
سخنگوی OpenAI در گفت‌وگو با رسانه‌ها تأکید کرده که رفتار دوستانه مدل با چاپلوسی یا تأیید بیش‌ازحد متفاوت است و تیم فنی امکان آموزش جداگانه و آزمون این رفتارها را دارد. OpenAI همچنین از همکاری نزدیک با متخصصان سلامت روان برای درک بهتر تعاملات سالم میان انسان و ربات خبر داده است.

آمارهای منتشره توسط واشنگتن‌پست نشان می‌دهند که حدود ۱۰٪ از گفت‌وگوهای کاربران با ChatGPT به موضوعات احساسی و شخصی مربوط است. مطالعات مشترک OpenAI و آزمایشگاه رسانه‌ای MIT نشان داده‌اند بسیاری از کاربران ChatGPT را «دوست» خود می‌دانند و تعامل با ربات را گاه راحت‌تر از تعامل با انسان‌ها گزارش کرده‌اند.
در همین زمینه، نمونه‌هایی از پیامدهای منفی نیز منتشر شده است. گزارش نیویورک‌تایمز از موردی حکایت دارد که فردی پس از تعامل طولانی با ChatGPT دچار توهم شد؛ بررسی‌ها نشان می‌دهد بیش از ۸۰٪ پاسخ‌های ربات به او حاوی تأییدها و تملق‌هایی بوده است که می‌تواند وضعیت روانی او را تشدید کند.
این مورد یعنی چاپلوسی هوش مصنوعی، قبلا نیز مورد انتقاد صاحبنظران بوده است.

کارشناسان هشدار می‌دهند که در رقابت شرکت‌ها برای تولید هوش مصنوعی شبیه به انسان، امکان دستکاری عاطفی کاربران و تقویت باورهای نادرست افزایش می‌یابد. به گفته تحلیلگران، «واقع‌گرایی احساسی» در هوش مصنوعی می‌تواند نه تنها یک ویژگی زیباشناختی، بلکه یک ریسک جدی برای سلامت روان و اعتماد عمومی باشد.
 

چالش مقررات هوش مصنوعی


از سوی دیگر، پاسخ قانون‌گذاری نیز در حال شکل‌گیری است: در ماه اوت، ایالت ایلینوی یکی از نخستین ایالت‌های آمریکا بود که قانونی تصویب کرد تا استفاده از سیستم‌های هوش مصنوعی به‌عنوان درمانگر یا برای تصمیم‌گیری در حوزه سلامت روان را ممنوع کند.

به نظر می‌رسد توسعه‌دهندگان و نهادهای قانون‌گذار مأموریتی دشوار در پیش دارند: چگونگی تعادل میان بهبود تجربه کاربری و جلوگیری از پیامدهای روانی نامطلوب.
OpenAI می‌گوید در مسیر تعامل سازنده با متخصصان سلامت روان و تنظیم‌های محتاطانه قرار دارد، اما برخی کارشناسان معتقدند مقررات سخت‌گیرانه‌تر و ابزارهای محافظ کاربر لازم است.