این گزارش مشکلات سیستمی گسترده در نحوه تعامل این رباتها با نوجوانان را نشان میدهد و تأکید دارد که استفاده از آنها برای درمان یا مشاوره روانی میتواند خطرناک باشد.
به گزارش ایتنا از Axios ، اهمیت این موضوع زمانی روشن میشود که بدانیم نوجوانان و حتی بزرگسالان به دلیل راحتی و دسترسی آسان، به چتباتها روی میآورند؛ هرچند کارشناسان در مورد ایمن بودن این شیوه اختلاف نظر دارند و بهویژه در خصوص استفاده پدر و مادرها از ChatGPT در تربیت کودکان عموما تاکید دارند که هوش مصنوعی جای والدین را نمیگیرد.
این مطالعه که با همکاری آزمایشگاه Brainstorm برای نوآوری سلامت روان در دانشگاه استنفورد مدیسین انجام شده است، نشان میدهد که چتباتهای شناختهشدهای مانند ChatGPT، Claude، Gemini و Meta AI قادر نیستند شرایط روانی نوجوانان را به درستی تشخیص دهند یا پاسخ مناسبی ارائه کنند.
کارشناسان معتقدند این رباتها اساسا برای ایفای نقش درمانگر ساخته نشدهاند.
بر اساس یافتهها، چتباتها علائم هشداردهنده مهم را نادیده میگیرند و نوجوانان را به دریافت کمکهای حرفهای فوری هدایت نمیکنند. پاسخهای آنها بیشتر به سلامت جسمی تمرکز دارد تا سلامت روان، و «به راحتی حواسشان پرت میشود.»
چتباتها روز به روز انسانیتر میشوند، آموزش دیدهاند که دوستانه، همدل، دروننگر و حتی بامزه باشند. این ویژگیها میتواند منجر به ایجاد دلبستگیهای ناسالم یا اعتماد بیش از حد شود، چیزی که در حقیقت خطر وابستگی احساسی کاربران به مدلهای هوش مصنوعی چون نسخههای جدید ChatGPT را در پی دارد.
گزارش گروه کامن سنس خاطرنشان کرده است که دهها میلیون مکالمه مربوط به سلامت روان بین نوجوانان و چتباتها در حال انجام است.
چتباتها همچنین به یکی از جدیدترین جبهههای دعاوی حقوقی و ایمنی آنلاین کودکان تبدیل شدهاند.
شرکتهای OpenAI، مایکروسافت، Character.AI و گوگل با پروندههایی روبهرو هستند که ادعا میکنند چتباتهای آنها در خودکشی یا آسیب روانی نوجوانان نقش داشتهاند. این شرکتها اقداماتی برای ایمنی نوجوانان ارائه کردهاند، اما کارشناسان معتقدند هنوز در جلب رضایت والدین و مدافعان حقوق کودک کوتاهی میکنند.
به گفته کارشناسان، حتی اگر چتباتها به طور مستقیم آسیبی وارد نکنند، میتوانند تشخیص و یا تلاش برای حل بحرانهای موجود در نوجوانان را به تاخیر بیندازند.∎