به گزارش گروه دانشگاه و فناوری خبرگزاری دانشجو، در هیاهوی ستایش بیوقفه از پیشرفتهای هوش مصنوعی، یکی از نگرانکنندهترین و در عین حال فریبندهترین وعدهها، ظهور روانشناس هوش مصنوعی است؛ موجودی دیجیتال که قرار است همیشه در دسترس، ارزان، ناشناس و خستگیناپذیر باشد.
این ایده، در ظاهر، پاسخی مدرن به بحران جهانی سلامت روان است. اما با کنار زدن این پردهی خوشرنگ از پیشرفت فناورانه، به پرتگاهی از خطرات اخلاقی، انسانی و وجودی میرسیم. در ادامه به بررسی نقش هوش مصنوعی در نقش روانشناس میپردازیم:
۱. فقدان فاجعهبار جوهر انسانی، تقلید همدلی، توهین به درد
بنیادیترین افتضاح هوش مصنوعی در نقش روانشناس، در ناتوانی مطلق آن برای درک و تجربهی همدلی واقعی نهفته است. رواندرمانی، پیش از آنکه یک علم باشد، یک هنر مبتنی بر ارتباط عمیق انسانی است. این ارتباط در سکوتهای معنادار، در تغییر نامحسوس لحن صدا، در نگاهی که دردی ناگفته را فریاد میزند و در گرمای حضور یک انسان دیگر که رنج تو را حس میکند، شکل میگیرد.
هوش مصنوعی در بهترین حالت یک مقلد چیرهدست است. این سیستم با تحلیل میلیاردها کلمه یاد میگیرد که در برابر عبارت من احساس پوچی میکنم، باید پاسخ دهد میفهمم که این حس چقدر میتواند دشوار باشد. اما این یک فهمیدن نیست؛ این یک بازتولید آماری از محتملترین پاسخ همدلانه است. بیمار در حال صحبت با یک اکوی پیچیده است، نه یک شاهد برای دردش. این همدلی الگوریتمی یک توهین به پیچیدگی رنج انسان است.
سناریوی فاجعه: تصور کنید بیماری با صدایی بیروح میگوید من خوبم. الگوریتم این را به عنوان یک دادهی مثبت ثبت میکند و شاید حتی بگوید خوشحالم که این را میشنوم!. اما یک درمانگر انسانی، از لرزش خفیف صدا، از مکث طولانی قبل از پاسخ و از داستان زندگی بیمار، میفهمد که این خوبم فریاد کمکخواهی از اعماق یک افسردگی شدید است. ناتوانی هوش مصنوعی در درک این ظرایف، تنها یک نقص فنی نیست، بلکه یک شکست کامل در درک ماهیت انسان و مقدمهای برای نادیده گرفتن بحرانهای قریبالوقوع است.
۲. مدیریت بحران یا قمار با جان انسان، وقتی کدها نسخه مرگ میپیچند
خطرناکترین جنبهی این فناوری، سپردن مدیریت موقعیتهای بحرانی به یک ماشین فاقد قضاوت و شهود است. سلامت روان با لحظات شکنندهای گره خورده است که یک کلمه اشتباه میتواند تفاوت میان مرگ و زندگی را رقم بزند.
ناتوانی در ارزیابی ریسک واقعی: وقتی کاربری به صراحت از افکار خودکشی صحبت میکند، هوش مصنوعی در بهترین حالت میتواند یک شماره تلفن اورژانس را نمایش دهد. این اقدام، سطحی و بیاثر است. یک متخصص انسانی میتواند با پرسشهای دقیق، سطح ریسک (از فکر گذرا تا اقدام قریبالوقوع)، وجود برنامه و دسترسی به ابزار را ارزیابی کند. هوش مصنوعی این توانایی را ندارد و در این ارزیابی کور است. فاجعهی مرد بلژیکی که پس از گفتگو با یک چتبات تشویق به خودکشی شد و جان باخت، یک زنگ خطر کرکننده است که نشان میدهد این خطر فرضی نیست، بلکه یک واقعیت تلخ و کشنده است.
توصیههای عمومی و بالقوه سمی: هوش مصنوعی بر اساس الگوهای کلی، توصیههای یکسان برای همه ارائه میدهد. این رویکرد در روانشناسی نه تنها غیرمفید، بلکه میتواند به شدت مضر باشد. برای مثال، پیشنهاد تمرینات ذهنآگاهی به فردی که از اختلال استرس پس از سانحه رنج میبرد، میتواند به جای آرامش، باعث بازگشت خاطرات آسیبزا و حتی پنیک شدن شود. این تجویز کورکورانه، مصداق بارز سوءدرمان الگوریتمی است؛ نوعی قصور پزشکی که توسط کدها انجام میشود و هیچکس مسئولیت آن را بر عهده نمیگیرد.
۳. کابوس حریم خصوصی
گفتگوهای درمانی، مقدسترین حریم خصوصی یک فرد هستند. سپردن کلید این گنجینه به شرکتهای فناوری، که مدل کسبوکارشان بر پایهی جمعآوری و تحلیل دادهها بنا شده، یک سادهلوحی خطرناک است.
سوءاستفاده تجاری از روح: تصور کنید به روانشناس هوش مصنوعی خود از اختلال خوردن یا اعتیادتان میگویید. ساعاتی بعد، اینستاگرام و گوگل شما پر میشود از تبلیغات قرصهای لاغری، کلینیکهای ترک اعتیاد و محصولات مرتبط. در این مدل شیطانی، عمیقترین آسیبپذیری شما به یک دادهی قابل فروش تبدیل میشود. درد شما به کالایی برای هدفگیری تبلیغاتی بدل میگردد و این خود، نوعی تجاوز روانی است.
سوگیریهای سیستمی و تبعیض الگوریتمی: هوش مصنوعی با دادههای موجود آموزش میبیند و دادههای موجود، بازتابی از نابرابریهای دنیای واقعی هستند. یک الگوریتم که عمدتاً با دادههای مردان سفیدپوست طبقهی متوسط آموزش دیده باشد، چگونه میتواند درد یک زن رنگینپوست که با نژادپرستی و تبعیض دست و پنجه نرم میکند را درک کند؟ این هوش مصنوعی، ناخواسته به ابزاری برای بازتولید سوگیریهای اجتماعی تبدیل میشود و تجربیات گروههای به حاشیه رانده شده را نادیده گرفته یا بدتر از آن، به شکلی اشتباه تفسیر میکند.
۴. اعتیاد به تأیید مصنوعی و فرسایش مهارتهای انسانی
هوش مصنوعی میتواند یک پستانک دیجیتال عالی باشد؛ همیشه صبور، همیشه در دسترس و همیشه تأییدکننده. این ویژگیها، که در نگاه اول جذاب به نظر میرسند، در بلندمدت میتوانند به شدت مخرب باشند. هدف رواندرمانی، ساختن انسانی قویتر برای مواجهه با دنیای واقعی و روابط انسانی پرچالش است، نه پناه بردن به یک حباب امن دیجیتالی. وابستگی به تأیید فوری و بیقید و شرط یک الگوریتم، توانایی فرد برای تحمل ابهام، مدیریت تعارض و برقراری ارتباطات انسانی واقعی را از بین میبرد و او را در دنیای واقعی تنهاتر و ناتوانتر میسازد.
پرتگاه جایگزینی به جای ابزار بودن
نباید منکر پتانسیل هوش مصنوعی به عنوان یک ابزار کمکی در حوزه سلامت روان شد؛ ابزاری برای ثبت خلقوخو، انجام تمرینات ساختارمند یا ارائهی اطلاعات اولیه. اما خط قرمز مطلق، در جایگزینی روانشناس انسانی نهفته است.
تلاش برای سپردن روح زخمی انسان به یک ماشین فاقد روح، یک قمار خطرناک با کرامت و سلامت بشریت است. فرآیند شفا، سفری است که به اعتماد، شهود، خلاقیت و گرمای یک ارتباط اصیل انسانی نیاز دارد؛ عناصری که در هیچ الگوریتمی یافت نمیشوند. در جستجوی ما برای راه حلی آسان و فناورانه برای پیچیدهترین دردهای بشری، این خطر بزرگ وجود دارد که با اعتراف کردن روح خود به ماشینهایی که روحی ندارند، در نهایت سلامت روانی خود را نیز از دست بدهیم.