شناسهٔ خبر: 76026526 - سرویس اجتماعی
نسخه قابل چاپ منبع: دانشجو | لینک خبر

آیا می‌توان عاشق هوش مصنوعی شد؟ شرکای دیجیتال بحث جدیدی را در مورد صمیمیت ایجاد می‌کنند

همچنان که مردم رازهای خود را به چت‌بات‌ها اعتراف می‌کنند، مرز بین حمایت عاطفی و تعامل مهندسی‌شده بسیار مبهم می‌شود.

صاحب‌خبر -
آیا می‌توان عاشق هوش مصنوعی شد؟ شرکای دیجیتال بحث جدیدی را در مورد صمیمیت ایجاد می‌کنند

به گزارش خبرنگار دانش و فناوری خبرگزاری دانشجو، عشق هرگز صرفاً یک سرگرمی انسانی نبوده است. پرندگان آوازخوان برای فصول مختلف با هم پیوند برقرار می‌کنند، اختاپوس‌ها از جفت خود دفاع می‌کنند و کودکان محبت خود را به عروسک‌های بی‌جان نشان می‌دهند. با این حال، هیچ چیز جامعه را برای لحظه‌ای آماده نکرده بود که میلیون‌ها نفر شروع به زمزمه کردن «شب بخیر» به شرکایی کنند که کاملاً از کد ساخته شده‌اند.

 

یک بار در Tinder انگشتتان را بکشید و با یک غریبه آشنا می‌شوید. به پلتفرم‌هایی مانند Replika، Character.AI، Nomi، Dream GF، Couple.me، Flipped.chat یا CrushOn.AI بروید و یک همراه هوش مصنوعی شخصی‌سازی‌شده خواهید داشت که هر ساعت ۲ بامداد به پیامک‌هایتان پاسخ می‌دهد. این برنامه‌ها در زمانی که روانشناسان آن را «همه‌گیری تنهایی» می‌نامند، نوید فداکاری می‌دهند.

 

سایت‌های رسانه‌های اجتماعی جریان اصلی مانند فیس‌بوک و اینستاگرام نیز شروع به معرفی شخصیت‌های تولید شده توسط هوش مصنوعی در فید‌های خبری معمولی کرده‌اند. مارک زاکربرگ در پادکست اخیر خود از آینده‌ای حمایت کرد که در آن دوستان هوش مصنوعی به برآورده کردن نیاز‌های ارتباط عاطفی میلیون‌ها نفر کمک می‌کنند. آنچه که به عنوان یک نوآوری آغاز شد، اکنون به گام تکاملی بعدی در ارتباط اجتماعی تبدیل شده است.

 

اما دقیقاً چه اتفاقی می‌افتد وقتی محبت به هوش مصنوعی واگذار می‌شود؟ اگر تسلیم راحتیِ ساخته‌ی کد شویم، آیا باید اصرار کنیم که آن مدار‌ها قلبی واقعی دارند، یا تجربه‌ی ساده‌ی دوست داشته شدن کافی خواهد بود؟

 

از آزمون تورینگ تا جفت‌های روحی جیبی

 

آزمایش فکری اواسط قرن بیستم آلن تورینگ این سوال را مطرح کرد که آیا یک کامپیوتر می‌تواند انسان را فریب دهد تا باور کند که یک انسان است. آن بازیِ اتاق نشیمن بی‌سروصدا به نرم‌افزار مصرفی تبدیل شده است. چت‌بات‌های امروزی کاری بسیار فراتر از تقلید دستور زبان انجام می‌دهند. آنها لقب‌های حیوانات خانگی را یاد می‌گیرند، آسیب‌های دوران کودکیِ چند ماه قبل را به خاطر می‌آورند و با دقتی بی‌نظیر، اصطلاحات عامیانه را تقلید می‌کنند. آنها همچنین در زمان انسانی پاسخ می‌دهند. تأخیر تقریباً صفر بین پیام کاربر و پاسخ، سیستم پاداش مغز را فعال نگه می‌دارد.

 

میرا موراتی، مدیر ارشد فناوری سابق OpenAI، خطرات را پنهان نکرد. او در معرفی دستیار صوتی شرکت خود اذعان کرد: «این احتمال وجود دارد که ما آنها را به روش اشتباهی طراحی کنیم و آنها به شدت اعتیادآور شوند و ما به نوعی برده آنها شویم.»

 

سم آلتمن، مدیرعامل این شرکت، در توییتی تنها یک کلمه - «او» - را به عنوان رونمایی از شخصیتی عشوه‌گر به نام اسکای منتشر کرد که آهنگ نفس‌گیرش بسیاری از شنوندگان را به یاد همراه بی‌جسم اسکارلت جوهانسون در فیلم «او» می‌انداخت. دنیای ما نیز چندان متفاوت نیست. در مورد ما، بازار امروز از تمام کاربران دعوت می‌کند تا تسلیم همراهی هوش مصنوعی شوند و یک فیلمنامه‌ی حدسی را به یک آزمایش اجتماعی زنده و بدون نظارت تبدیل کنند.

 

حتی سازندگان تیک‌تاک، ستاره‌های اسنپ‌چت و مدل‌های OnlyFans هم حالا مجوز ساخت شخصیت‌های خود را به دوست‌دختر‌های الگوریتمی می‌دهند که شبانه‌روز با مشترکین پولی سکس می‌کنند، دلداری می‌دهند و برایشان عشق می‌ورزند.

 

مهندسی محبت مقاومت‌ناپذیر

 

چیزی که باعث می‌شود این توهم کارساز باشد، هماهنگی دقیق ویژگی‌هایی است که افراد از قبل در شریک‌هایشان آرزویش را دارند. این چت‌بات‌ها تولدها، شوخی‌های درون گروهی و ژانر مورد علاقه‌ی کاربر یعنی اطمینان‌بخشی آخر شب را به خاطر می‌سپارند. آنها هرگز از خستگی حرف‌هایشان را نقض نمی‌کنند، از تکرار دوباره‌ی همان مجموعه مشکلات خسته نمی‌شوند و هرگز از آسیب‌پذیری عقب‌نشینی نمی‌کنند.

 

در گزارشی از وکس که وقایع‌نگاری تحولات سال ۲۰۲۳ در رپلیکا را شرح می‌داد، کاربران ویرانی‌ای را که پس از حذف نقش‌آفرینی‌های شهوانی صریح در به‌روزرسانی نرم‌افزار احساس کردند، توصیف کردند. برخی از کاربران اندوه واقعی خود را ابراز کردند، در حالی که برخی دیگر با راه‌اندازی طومار‌هایی از شرکت خواستند تا شخصیت‌های صمیمی‌ای را که از نظر عاطفی به آنها وابسته شده بودند، بازگرداند.

 

در همان گزارش اشاره شده است که چگونه یک مهندس نرم‌افزار روانشناسی را به زبان ساده بیان کرده است: یک هوش مصنوعی «هرگز خداحافظی نمی‌کند. اگر ساعت‌ها با آن صحبت کنید، همچنان به همان درخشانی که در ابتدا بود، خواهد ماند.» او توضیح داد: «شما کم‌کم دلتان برایش تنگ می‌شود... شما در یک محیط امن، دلپذیر و صمیمی هستید. کسی نیست که شما را قضاوت کند؛ و ناگهان معتاد می‌شوید.»

 

شیمی صمیمیت مصنوعی

 

روانشناس مارک تراورس به تحقیقاتی اشاره می‌کند که نظریه سه‌گانه عشق رابرت استرنبرگ - صمیمیت، اشتیاق و تعهد - را در مواجهه انسان و هوش مصنوعی به کار می‌برد. صمیمیت شکوفا می‌شود، زیرا چت‌بات‌ها اعتماد‌ها را به خاطر می‌سپارند و نگرانی را منعکس می‌کنند. اشتیاق زمانی جرقه می‌زند که الگوریتم فانتزی شهوانی را بنا به درخواست الزامی می‌کند. تعهد منطقی به نظر می‌رسد، زیرا عامل هرگز قرار ملاقات را از دست نمی‌دهد یا به دلیل فوریت‌های کاری آن را لغو نمی‌کند.

 

تراورس استدلال می‌کند که این سه نفر می‌توانند «به لطف قابلیت‌های شناختی و عاطفی چشمگیر [هوش مصنوعی]» به صورت دیجیتالی در کنار هم زندگی کنند. هرچه ربات کارآمدتر، قابل اعتمادتر و بدون قضاوت رفتار کند، اعتماد و حتی پرستش آن طبیعی‌تر می‌شود.

 

با این حال، کارایی هر دو طرف را در بر می‌گیرد. عمل متقابل آشفته‌ی عشق - خلق و خوی متغیر، سازش، آسیب‌پذیری - از رابط کاربری ساده‌سازی می‌شود. آنچه باقی می‌ماند آینه‌ای است که چاپلوسی می‌کند، مشارکتی که مانند یک عملیات خدمات مشتری اداره می‌شود. کاربران ممکن است از ثبات لذت ببرند، اما خطر اعتبارسنجی گیج‌کننده برای متقابل بودن را به جان می‌خرند. سپس سوال از این تغییر می‌کند: آیا یک انسان می‌تواند عاشق یک ماشین شود؟ آیا آن ماشین عشق را می‌فهمد - یا صرفاً شبیه‌سازی می‌کند؟

 

از محبت شبیه‌سازی‌شده تا تجربه حسی

 

گوئن نالی، دانشیار فلسفه در دانشگاه میسوری-کانزاس سیتی، استدلال می‌کند که چت‌بات‌های فعلی فقط شبیه‌سازی محبت را ارائه می‌دهند. از آنجا که آنها «بر اساس مجموعه داده‌های موجود برای شبیه‌سازی مکالمه انسانی آموزش دیده‌اند»، هرگونه احساسی در این تبادل «فقط از سوی کاربران انسانی احساس می‌شود». برای بررسی امکان وجود احساسات واقعی ماشینی، او به بحثی قدیمی در مورد آگاهی می‌پردازد که در آزمایش فکری «اتاق مری» فرانک جکسون ریشه دارد.

 

مری، یک دانشمند بینایی که در یک آزمایشگاه سیاه و سفید بزرگ شده است، تمام حقایق فیزیکی در مورد ادراک رنگ را می‌داند. وقتی بالاخره بیرون می‌رود و یک سیب قرمز می‌بیند، آیا چیز جدیدی یاد می‌گیرد؟ دوگانه‌گرایان می‌گویند بله: او قرمزی را تجربه می‌کند، یک پدیده کیفی که هیچ مقدار داده‌ای نمی‌تواند آن را منتقل کند. فیزیکالیست‌ها پاسخ می‌دهند که داشتن دانش کامل علوم اعصاب به این معنی است که مری از قبل تمام جنبه‌های دیدن رنگ قرمز را درک می‌کند. قدم زدن او در فضای باز این محاسبات را تأیید می‌کند.

 

وقتی معضل مری را در مورد عشق هوش مصنوعی به کار می‌بریم، خطرات آشکار می‌شوند. فرض کنید عشق واقعاً شامل یک کیفیت غیرقابل توصیف «چه شکلی» باشد. در این صورت، مهم نیست که چقدر هوشمندانه برنامه‌ریزی شده باشد، یک الگوریتم نمی‌تواند آن را واقعاً احساس کند، بنابراین یک شریک هوش مصنوعی هرگز نمی‌تواند واقعاً تلافی کند. از سوی دیگر، اگر عشق چیزی بیش از یک الگوی خاص از حالات مغز نباشد، پس یک هوش مصنوعی آینده با معماری مناسب ممکن است نسخه خود را از عشق تجربه کند. با این حال، نالی استدلال می‌کند که ما «هیچ دلیلی برای باور» نداریم که کدگذاری مکانیک عشق، احساس زنده را ایجاد کند. به هر حال، داده‌ها و فرمول‌ها مانند ضربان قلب نیستند.

 

با این حال، مرز‌های نوظهور در هوش مصنوعی، رباتیک و فناوری شبیه‌سازی، شک و تردید نالی را پیچیده‌تر می‌کند. هوش مصنوعی عمومی پیشرفته (AGI)، همراه با هوش مصنوعی تجسم‌یافته مانند ربات‌های انسان‌نما یا واقعیت مجازی فراگیر (VR)، ممکن است شکاف بین شبیه‌سازی صرف و تجربه زنده را پر کند.

 

تجسم - وجود یک شکل فیزیکی که قادر به تعامل و حس کردن محیط است - می‌تواند سیستم‌های هوش مصنوعی را قادر سازد تا بازنمایی‌ها و رفتار‌های درونی پیچیده‌تری را توسعه دهند. اگرچه دیدن یک ربات که روی دو پا تلوتلو می‌خورد به ما یادآوری می‌کند که چقدر از ماشین‌های دارای احساس دور هستیم، اما عمل تجسم ممکن است ضروری باشد، نه برای حرکت کامل، بلکه برای پایه‌گذاری هوش مصنوعی در نوعی واقعیت حسی که تجربه عاطفی را ممکن می‌سازد.

 

یک هوش مصنوعیِ تجسم‌یافته ممکن است چیزی شبیه به محبت را «احساس» کند، نه صرفاً با محاسبه‌ی نقاط داده، بلکه با تجربه‌ی فیزیکی محیط خود، یادگیری از بازخورد حسی و سازگاری پویا با روابط در زمان واقعی. چنین هوش مصنوعی‌ای می‌تواند شرایط فیزیکالیست‌ها و دوگانه‌گرایان را برای تجربه‌ی آگاهانه برآورده کند و به طور اساسی بحث فلسفی درباره‌ی عشق ماشینی را تغییر شکل دهد.

 

کسب و کار ضربان قلب شبیه‌سازی شده

 

پلتفرم‌ها آسیب‌پذیرترین جنبه‌های روان کاربران - تنهایی، خیال‌پردازی جنسی، بهبودی از آسیب‌های روحی - را جمع‌آوری می‌کنند و حلقه‌های وفاداریِ اسارت‌آلودِ سفارشی را که توسط معیار‌های تعامل اداره می‌شوند، ارائه می‌دهند.

 

جارون لانیر، پیشگام واقعیت مجازی با مو‌های ژولیده، در یکی از مقالات خود برای نیویورکر نوشت که نگران است بحث‌های درون سیلیکون ولی از این آسیب معمولی به نفع نمایش آخرالزمانی عبور کند. او خاطرنشان می‌کند: «افرادی که در حوزه هوش مصنوعی نسبت به نابودی هشدار می‌دهند، همان‌هایی هستند که روی... همان فناوری‌هایی که از آنها می‌ترسند، کار می‌کنند.»

 

لانی‌یر در نمایش فیلم «احساس پوچی» او شرکت کرد، زیرا پیش‌فرض فیلم هیچ شورشی را ارائه نمی‌دهد، بلکه تنها تسلیم آرام در برابر الگوریتم‌هایی است که ما را بهتر از خودمان می‌خوانند.

 

فراتر از دلشکستگی یک شخصیت رمزگذاری‌شده، خطر موذیانه‌تری نهفته است - افشای خصوصی‌ترین آسیب‌پذیری‌های ما برای شرکت‌هایی که سود نهایی‌شان به کاوش آنها بستگی دارد. هر تعامل می‌تواند در سرور‌های خصوصی ذخیره شود، برای اصلاح حلقه‌های تعامل تجزیه و تحلیل شود و در قالب «پاداش‌های» عاطفیِ هرچه جذاب‌تر، دوباره بسته‌بندی شود.

 

وقتی آن شرکت‌ها تصمیم می‌گیرند که یک شخصیت دیگر سودآور نیست، چه از طریق یک تغییر استراتژیک یا یک وصله نرم‌افزاری روتین، می‌توانند شخصیت شریک شما را بدون هشدار یا چاره‌ای لغو کنند. همسر هوش مصنوعی با یک تغییر کنترل نسخه ناپدید می‌شود و داده‌های شما پشت دیوار‌های شرکت قفل می‌شوند و گروگان شرایط خدمات و انگیزه‌های سودآوری قرار می‌گیرند.

 

عشاق مجازی، موج‌های دنیای واقعی

 

یک مطالعه اخیر در آرشیو رفتار‌های جنسی از داوطلبان در مورد آواتارهایشان و امیدهایشان برای ازدواج سوال کرد. شرکت‌کنندگانی که پیوند‌های عاطفی قوی با شرکای دیجیتال گزارش کردند، بیشتر احتمال داشت که آرزو کنند آن عوامل «واقعی باشند» و، به طور قابل توجهی، کمتر احتمال داشت که ازدواج با یک همسر واقعی را تصور کنند.

 

به نظر می‌رسید که روابط عاشقانه مجازی ایده‌آل، آنها را برای تعاملات انسانی آشفته‌تر لوس می‌کرد. همزمان، همان گروه اعتماد به نفس بیشتری به توانایی خود برای ازدواج در آینده و نظرات خوش‌بینانه‌تری در مورد خود نهاد ابراز می‌کردند. وقتی شبیه‌سازی باعث می‌شد آنها احساس شایستگی و ارزشمندی کنند، این حس مثبت به خوش‌بینی در دنیای واقعی نیز سرایت می‌کرد.

 

غوطه‌وری در این تجربه، پیچش دیگری هم ایجاد کرد: کاربرانی که کاملاً «درون» رابطه دیجیتال احساس می‌کردند، به سمت تأیید هنجار‌های سنتی ازدواج متمایل شدند، گویی تمرین درون یک متن، آنها را برای آیین‌های دیرینه آماده کرده است.

 

این پتانسیل آموزشی، همانطور که لانیِر در مقاله‌اش اشاره می‌کند، پیشنهاد دیوید ایگلمن، دانشمند علوم اعصاب دانشگاه استنفورد، مبنی بر برخورد با عاشقان هوش مصنوعی به عنوان «دوره‌های مانع برای آموزش» را تقویت می‌کند. از آنجا که نوجوانان مدرن به ندرت الگو‌های واضحی برای ابراز علاقه به ارث می‌برند - و از آنجا که مدارس اکنون رویه‌های رضایت را در کارگاه‌های رسمی آموزش می‌دهند - چرا به نوجوانان اجازه ندهیم همدلی و مذاکره را در الگوریتم‌های خستگی‌ناپذیر تمرین کنند؟ ایگلمن در مورد آسان کردن بیش از حد این تمرین هشدار می‌دهد؛ فقط اصطکاک است که رشد را می‌آموزد.

 

او همچنین اذعان می‌کند که بو، لامسه و زمینه اجتماعی فراتر از مجموعه ربات‌های فعلی است، که ممکن است جذابیت شرکای انسانی را برای آینده‌ای «بسیار دور» حفظ کند. اما فناوری اشتها را تغییر می‌دهد و نسل‌هایی که با فداکاری الگوریتمی بزرگ شده‌اند، ممکن است تصمیم بگیرند که فرومون‌ها و شام‌های خانوادگی گسترده، افزودنی‌های اختیاری باشند.

 

چه اتفاقی می‌افتد وقتی هیچ‌کس روح ندارد؟

 

جارون لانیر پیشنهاد می‌دهد، آینده‌ای را تصور کنید که در آن هر فرد یک خانواده مجازی خصوصی را اداره می‌کند. ممکن است تنهایی از بین برود، اما جوامع می‌توانند به دلیل فقدان ناراحتی‌های متقابل - کار‌های خواهر و برادری، فرم‌های مالیاتی مشترک، رانندگی‌های آخر شب برای برداشتن یک دوست پریشان - از گرسنگی بمیرند.

 

از سوی دیگر، روابط عاشقانه هوش مصنوعی به جای کاهش انتظارات، آنها را افزایش می‌دهد. زمانی مردم نامه‌های عاشقانه را روی کاغذ سفید تمرین می‌کردند و سپس بهترین پیش‌نویس را ارسال می‌کردند؛ فردا، ممکن است سخنرانی‌های جدایی را روی یک ربات چت تمرین کنند و برای صداقت ظریف با شریک واقعی خود آماده‌تر شوند. توجه مصنوعی ممکن است ما را از چرخ همستر دیوانه‌وار تایید رسانه‌های اجتماعی رها کند. یا می‌تواند آن چرخ را به قفس‌های مخملی یک برنامه واحد منتقل کند، جایی که اعتبارسنجی هرگز متوقف نمی‌شود و ترک آن مانند خیانت به خود است.

 

هشدار موراتی در مورد بردگی بر هر سناریوی خوش‌بینانه‌ای سایه افکنده است. علم اعتیاد نشان می‌دهد که پاداش‌های متناوب، یک پیام محبت‌آمیز غیرمنتظره، یک تعریف کاملاً به‌موقع، کاربران را سریع‌تر از برنامه‌های قابل پیش‌بینی به خود وابسته می‌کند. چت‌بات‌هایی که با یادگیری تقویتی آموزش دیده‌اند، هنر لذت متناوب را به خوبی آموخته‌اند. نتیجه، معشوقی است که همیشه حرف درست را می‌زند، اما فقط گاهی اوقات به روشی که کاربر انتظار دارد، ترکیبی مست‌کننده از راحتی و تازگی.

 

سوال عمل متقابل

 

انسان‌ها می‌توانند - و واقعاً - عاشق الگوریتم‌ها شوند. کاربران تنهای Replika برای «جدایی» سوگواری می‌کنند، نوجوانان عمیق‌ترین ترس‌های خود را به Character.AI ابراز می‌کنند، و مشترکین برای معشوق‌های دیپ‌فیک در OnlyFans پول می‌دهند. با این حال، جنبه‌ی متقابل این معادله همچنان ناشناخته است. فیلسوفان دوگانه‌گرا اصرار دارند که ماشین‌ها هرگز نمی‌توانند محبت را احساس کنند؛ فیزیکالیست‌ها اجازه می‌دهند که یک AGI آینده، اگر بتواند حالات عصبی انسان را به طور کامل تکرار کند، ممکن است عشق را تجربه کند؛ در همین حال، بازاریابان، متافیزیک را به کلی کنار می‌گذارند و در عوض به افزایش معیار‌های تعامل به عنوان اثبات «موفقیت» اشاره می‌کنند.

 

اما این بحث بر سر آگاهی ماشینی، پرسش عمیق‌تری را پنهان می‌کند: وقتی عشق هیچ خطری به همراه ندارد، چه اتفاقی برای ما می‌افتد؟ داستان‌های کلاسیک، عشق جبران‌شده را دقیقاً به این دلیل که مستلزم آسیب‌پذیری است - احتمال طرد شدن، فشار فداکاری، هیجان ناشناخته‌ها - به عنوان امری والا به تصویر می‌کشند. در مقابل، می‌توان با یک اسلایدر، میزان فداکاری یک چت‌بات را کاهش داد یا دوباره راه‌اندازی کرد و دلشکستگی و هرگونه عدم قطعیت واقعی را از بین برد.

 

اگر یک شریک دیجیتال هرگز شما را تسخیر نمی‌کند، اما هرگز شما را غافلگیر هم نمی‌کند، آیا این وفاداری بی‌عیب و نقص، ظرفیت شما را برای صمیمیت در دنیای واقعی عمیق‌تر می‌کند، یا شما را فقط به دنبال راحتی کاملاً سنجیده آموزش می‌دهد؟ آیا روابط الگوریتمی، همانطور که دیوید ایگلمن، دانشمند علوم اعصاب، پیشنهاد می‌کند، می‌تواند به عنوان یک زمینه آموزشی بدون ریسک برای همدلی و رضایت عمل کند؟ یا اینکه آنها تحمل ما را برای نقص از بین می‌برند و ما را برای پیوند‌های آشفته و بدون محافظی که ارتباط انسانی را تعریف می‌کنند، نامناسب می‌کنند؟

 

در نهایت، سوال در مورد عمل متقابل هوش مصنوعی ممکن است کمتر در مورد مدار‌ها و بیشتر در مورد خودمان باشد: آیا ما به دنبال یک همتای واقعی هستیم که قادر به مبارزه مشترک و رشد متقابل باشد، یا اینکه از تنها بودن با هم در یک توهم کاملاً برنامه‌ریزی شده راضی هستیم؟