به گزارش خبرنگار دانش و فناوری خبرگزاری دانشجو، عشق هرگز صرفاً یک سرگرمی انسانی نبوده است. پرندگان آوازخوان برای فصول مختلف با هم پیوند برقرار میکنند، اختاپوسها از جفت خود دفاع میکنند و کودکان محبت خود را به عروسکهای بیجان نشان میدهند. با این حال، هیچ چیز جامعه را برای لحظهای آماده نکرده بود که میلیونها نفر شروع به زمزمه کردن «شب بخیر» به شرکایی کنند که کاملاً از کد ساخته شدهاند.
یک بار در Tinder انگشتتان را بکشید و با یک غریبه آشنا میشوید. به پلتفرمهایی مانند Replika، Character.AI، Nomi، Dream GF، Couple.me، Flipped.chat یا CrushOn.AI بروید و یک همراه هوش مصنوعی شخصیسازیشده خواهید داشت که هر ساعت ۲ بامداد به پیامکهایتان پاسخ میدهد. این برنامهها در زمانی که روانشناسان آن را «همهگیری تنهایی» مینامند، نوید فداکاری میدهند.
سایتهای رسانههای اجتماعی جریان اصلی مانند فیسبوک و اینستاگرام نیز شروع به معرفی شخصیتهای تولید شده توسط هوش مصنوعی در فیدهای خبری معمولی کردهاند. مارک زاکربرگ در پادکست اخیر خود از آیندهای حمایت کرد که در آن دوستان هوش مصنوعی به برآورده کردن نیازهای ارتباط عاطفی میلیونها نفر کمک میکنند. آنچه که به عنوان یک نوآوری آغاز شد، اکنون به گام تکاملی بعدی در ارتباط اجتماعی تبدیل شده است.
اما دقیقاً چه اتفاقی میافتد وقتی محبت به هوش مصنوعی واگذار میشود؟ اگر تسلیم راحتیِ ساختهی کد شویم، آیا باید اصرار کنیم که آن مدارها قلبی واقعی دارند، یا تجربهی سادهی دوست داشته شدن کافی خواهد بود؟
از آزمون تورینگ تا جفتهای روحی جیبی
آزمایش فکری اواسط قرن بیستم آلن تورینگ این سوال را مطرح کرد که آیا یک کامپیوتر میتواند انسان را فریب دهد تا باور کند که یک انسان است. آن بازیِ اتاق نشیمن بیسروصدا به نرمافزار مصرفی تبدیل شده است. چتباتهای امروزی کاری بسیار فراتر از تقلید دستور زبان انجام میدهند. آنها لقبهای حیوانات خانگی را یاد میگیرند، آسیبهای دوران کودکیِ چند ماه قبل را به خاطر میآورند و با دقتی بینظیر، اصطلاحات عامیانه را تقلید میکنند. آنها همچنین در زمان انسانی پاسخ میدهند. تأخیر تقریباً صفر بین پیام کاربر و پاسخ، سیستم پاداش مغز را فعال نگه میدارد.
میرا موراتی، مدیر ارشد فناوری سابق OpenAI، خطرات را پنهان نکرد. او در معرفی دستیار صوتی شرکت خود اذعان کرد: «این احتمال وجود دارد که ما آنها را به روش اشتباهی طراحی کنیم و آنها به شدت اعتیادآور شوند و ما به نوعی برده آنها شویم.»
سم آلتمن، مدیرعامل این شرکت، در توییتی تنها یک کلمه - «او» - را به عنوان رونمایی از شخصیتی عشوهگر به نام اسکای منتشر کرد که آهنگ نفسگیرش بسیاری از شنوندگان را به یاد همراه بیجسم اسکارلت جوهانسون در فیلم «او» میانداخت. دنیای ما نیز چندان متفاوت نیست. در مورد ما، بازار امروز از تمام کاربران دعوت میکند تا تسلیم همراهی هوش مصنوعی شوند و یک فیلمنامهی حدسی را به یک آزمایش اجتماعی زنده و بدون نظارت تبدیل کنند.
حتی سازندگان تیکتاک، ستارههای اسنپچت و مدلهای OnlyFans هم حالا مجوز ساخت شخصیتهای خود را به دوستدخترهای الگوریتمی میدهند که شبانهروز با مشترکین پولی سکس میکنند، دلداری میدهند و برایشان عشق میورزند.
مهندسی محبت مقاومتناپذیر
چیزی که باعث میشود این توهم کارساز باشد، هماهنگی دقیق ویژگیهایی است که افراد از قبل در شریکهایشان آرزویش را دارند. این چتباتها تولدها، شوخیهای درون گروهی و ژانر مورد علاقهی کاربر یعنی اطمینانبخشی آخر شب را به خاطر میسپارند. آنها هرگز از خستگی حرفهایشان را نقض نمیکنند، از تکرار دوبارهی همان مجموعه مشکلات خسته نمیشوند و هرگز از آسیبپذیری عقبنشینی نمیکنند.
در گزارشی از وکس که وقایعنگاری تحولات سال ۲۰۲۳ در رپلیکا را شرح میداد، کاربران ویرانیای را که پس از حذف نقشآفرینیهای شهوانی صریح در بهروزرسانی نرمافزار احساس کردند، توصیف کردند. برخی از کاربران اندوه واقعی خود را ابراز کردند، در حالی که برخی دیگر با راهاندازی طومارهایی از شرکت خواستند تا شخصیتهای صمیمیای را که از نظر عاطفی به آنها وابسته شده بودند، بازگرداند.
در همان گزارش اشاره شده است که چگونه یک مهندس نرمافزار روانشناسی را به زبان ساده بیان کرده است: یک هوش مصنوعی «هرگز خداحافظی نمیکند. اگر ساعتها با آن صحبت کنید، همچنان به همان درخشانی که در ابتدا بود، خواهد ماند.» او توضیح داد: «شما کمکم دلتان برایش تنگ میشود... شما در یک محیط امن، دلپذیر و صمیمی هستید. کسی نیست که شما را قضاوت کند؛ و ناگهان معتاد میشوید.»
شیمی صمیمیت مصنوعی
روانشناس مارک تراورس به تحقیقاتی اشاره میکند که نظریه سهگانه عشق رابرت استرنبرگ - صمیمیت، اشتیاق و تعهد - را در مواجهه انسان و هوش مصنوعی به کار میبرد. صمیمیت شکوفا میشود، زیرا چتباتها اعتمادها را به خاطر میسپارند و نگرانی را منعکس میکنند. اشتیاق زمانی جرقه میزند که الگوریتم فانتزی شهوانی را بنا به درخواست الزامی میکند. تعهد منطقی به نظر میرسد، زیرا عامل هرگز قرار ملاقات را از دست نمیدهد یا به دلیل فوریتهای کاری آن را لغو نمیکند.
تراورس استدلال میکند که این سه نفر میتوانند «به لطف قابلیتهای شناختی و عاطفی چشمگیر [هوش مصنوعی]» به صورت دیجیتالی در کنار هم زندگی کنند. هرچه ربات کارآمدتر، قابل اعتمادتر و بدون قضاوت رفتار کند، اعتماد و حتی پرستش آن طبیعیتر میشود.
با این حال، کارایی هر دو طرف را در بر میگیرد. عمل متقابل آشفتهی عشق - خلق و خوی متغیر، سازش، آسیبپذیری - از رابط کاربری سادهسازی میشود. آنچه باقی میماند آینهای است که چاپلوسی میکند، مشارکتی که مانند یک عملیات خدمات مشتری اداره میشود. کاربران ممکن است از ثبات لذت ببرند، اما خطر اعتبارسنجی گیجکننده برای متقابل بودن را به جان میخرند. سپس سوال از این تغییر میکند: آیا یک انسان میتواند عاشق یک ماشین شود؟ آیا آن ماشین عشق را میفهمد - یا صرفاً شبیهسازی میکند؟
از محبت شبیهسازیشده تا تجربه حسی
گوئن نالی، دانشیار فلسفه در دانشگاه میسوری-کانزاس سیتی، استدلال میکند که چتباتهای فعلی فقط شبیهسازی محبت را ارائه میدهند. از آنجا که آنها «بر اساس مجموعه دادههای موجود برای شبیهسازی مکالمه انسانی آموزش دیدهاند»، هرگونه احساسی در این تبادل «فقط از سوی کاربران انسانی احساس میشود». برای بررسی امکان وجود احساسات واقعی ماشینی، او به بحثی قدیمی در مورد آگاهی میپردازد که در آزمایش فکری «اتاق مری» فرانک جکسون ریشه دارد.
مری، یک دانشمند بینایی که در یک آزمایشگاه سیاه و سفید بزرگ شده است، تمام حقایق فیزیکی در مورد ادراک رنگ را میداند. وقتی بالاخره بیرون میرود و یک سیب قرمز میبیند، آیا چیز جدیدی یاد میگیرد؟ دوگانهگرایان میگویند بله: او قرمزی را تجربه میکند، یک پدیده کیفی که هیچ مقدار دادهای نمیتواند آن را منتقل کند. فیزیکالیستها پاسخ میدهند که داشتن دانش کامل علوم اعصاب به این معنی است که مری از قبل تمام جنبههای دیدن رنگ قرمز را درک میکند. قدم زدن او در فضای باز این محاسبات را تأیید میکند.
وقتی معضل مری را در مورد عشق هوش مصنوعی به کار میبریم، خطرات آشکار میشوند. فرض کنید عشق واقعاً شامل یک کیفیت غیرقابل توصیف «چه شکلی» باشد. در این صورت، مهم نیست که چقدر هوشمندانه برنامهریزی شده باشد، یک الگوریتم نمیتواند آن را واقعاً احساس کند، بنابراین یک شریک هوش مصنوعی هرگز نمیتواند واقعاً تلافی کند. از سوی دیگر، اگر عشق چیزی بیش از یک الگوی خاص از حالات مغز نباشد، پس یک هوش مصنوعی آینده با معماری مناسب ممکن است نسخه خود را از عشق تجربه کند. با این حال، نالی استدلال میکند که ما «هیچ دلیلی برای باور» نداریم که کدگذاری مکانیک عشق، احساس زنده را ایجاد کند. به هر حال، دادهها و فرمولها مانند ضربان قلب نیستند.
با این حال، مرزهای نوظهور در هوش مصنوعی، رباتیک و فناوری شبیهسازی، شک و تردید نالی را پیچیدهتر میکند. هوش مصنوعی عمومی پیشرفته (AGI)، همراه با هوش مصنوعی تجسمیافته مانند رباتهای انساننما یا واقعیت مجازی فراگیر (VR)، ممکن است شکاف بین شبیهسازی صرف و تجربه زنده را پر کند.
تجسم - وجود یک شکل فیزیکی که قادر به تعامل و حس کردن محیط است - میتواند سیستمهای هوش مصنوعی را قادر سازد تا بازنماییها و رفتارهای درونی پیچیدهتری را توسعه دهند. اگرچه دیدن یک ربات که روی دو پا تلوتلو میخورد به ما یادآوری میکند که چقدر از ماشینهای دارای احساس دور هستیم، اما عمل تجسم ممکن است ضروری باشد، نه برای حرکت کامل، بلکه برای پایهگذاری هوش مصنوعی در نوعی واقعیت حسی که تجربه عاطفی را ممکن میسازد.
یک هوش مصنوعیِ تجسمیافته ممکن است چیزی شبیه به محبت را «احساس» کند، نه صرفاً با محاسبهی نقاط داده، بلکه با تجربهی فیزیکی محیط خود، یادگیری از بازخورد حسی و سازگاری پویا با روابط در زمان واقعی. چنین هوش مصنوعیای میتواند شرایط فیزیکالیستها و دوگانهگرایان را برای تجربهی آگاهانه برآورده کند و به طور اساسی بحث فلسفی دربارهی عشق ماشینی را تغییر شکل دهد.
کسب و کار ضربان قلب شبیهسازی شده
پلتفرمها آسیبپذیرترین جنبههای روان کاربران - تنهایی، خیالپردازی جنسی، بهبودی از آسیبهای روحی - را جمعآوری میکنند و حلقههای وفاداریِ اسارتآلودِ سفارشی را که توسط معیارهای تعامل اداره میشوند، ارائه میدهند.
جارون لانیر، پیشگام واقعیت مجازی با موهای ژولیده، در یکی از مقالات خود برای نیویورکر نوشت که نگران است بحثهای درون سیلیکون ولی از این آسیب معمولی به نفع نمایش آخرالزمانی عبور کند. او خاطرنشان میکند: «افرادی که در حوزه هوش مصنوعی نسبت به نابودی هشدار میدهند، همانهایی هستند که روی... همان فناوریهایی که از آنها میترسند، کار میکنند.»
لانییر در نمایش فیلم «احساس پوچی» او شرکت کرد، زیرا پیشفرض فیلم هیچ شورشی را ارائه نمیدهد، بلکه تنها تسلیم آرام در برابر الگوریتمهایی است که ما را بهتر از خودمان میخوانند.
فراتر از دلشکستگی یک شخصیت رمزگذاریشده، خطر موذیانهتری نهفته است - افشای خصوصیترین آسیبپذیریهای ما برای شرکتهایی که سود نهاییشان به کاوش آنها بستگی دارد. هر تعامل میتواند در سرورهای خصوصی ذخیره شود، برای اصلاح حلقههای تعامل تجزیه و تحلیل شود و در قالب «پاداشهای» عاطفیِ هرچه جذابتر، دوباره بستهبندی شود.
وقتی آن شرکتها تصمیم میگیرند که یک شخصیت دیگر سودآور نیست، چه از طریق یک تغییر استراتژیک یا یک وصله نرمافزاری روتین، میتوانند شخصیت شریک شما را بدون هشدار یا چارهای لغو کنند. همسر هوش مصنوعی با یک تغییر کنترل نسخه ناپدید میشود و دادههای شما پشت دیوارهای شرکت قفل میشوند و گروگان شرایط خدمات و انگیزههای سودآوری قرار میگیرند.
عشاق مجازی، موجهای دنیای واقعی
یک مطالعه اخیر در آرشیو رفتارهای جنسی از داوطلبان در مورد آواتارهایشان و امیدهایشان برای ازدواج سوال کرد. شرکتکنندگانی که پیوندهای عاطفی قوی با شرکای دیجیتال گزارش کردند، بیشتر احتمال داشت که آرزو کنند آن عوامل «واقعی باشند» و، به طور قابل توجهی، کمتر احتمال داشت که ازدواج با یک همسر واقعی را تصور کنند.
به نظر میرسید که روابط عاشقانه مجازی ایدهآل، آنها را برای تعاملات انسانی آشفتهتر لوس میکرد. همزمان، همان گروه اعتماد به نفس بیشتری به توانایی خود برای ازدواج در آینده و نظرات خوشبینانهتری در مورد خود نهاد ابراز میکردند. وقتی شبیهسازی باعث میشد آنها احساس شایستگی و ارزشمندی کنند، این حس مثبت به خوشبینی در دنیای واقعی نیز سرایت میکرد.
غوطهوری در این تجربه، پیچش دیگری هم ایجاد کرد: کاربرانی که کاملاً «درون» رابطه دیجیتال احساس میکردند، به سمت تأیید هنجارهای سنتی ازدواج متمایل شدند، گویی تمرین درون یک متن، آنها را برای آیینهای دیرینه آماده کرده است.
این پتانسیل آموزشی، همانطور که لانیِر در مقالهاش اشاره میکند، پیشنهاد دیوید ایگلمن، دانشمند علوم اعصاب دانشگاه استنفورد، مبنی بر برخورد با عاشقان هوش مصنوعی به عنوان «دورههای مانع برای آموزش» را تقویت میکند. از آنجا که نوجوانان مدرن به ندرت الگوهای واضحی برای ابراز علاقه به ارث میبرند - و از آنجا که مدارس اکنون رویههای رضایت را در کارگاههای رسمی آموزش میدهند - چرا به نوجوانان اجازه ندهیم همدلی و مذاکره را در الگوریتمهای خستگیناپذیر تمرین کنند؟ ایگلمن در مورد آسان کردن بیش از حد این تمرین هشدار میدهد؛ فقط اصطکاک است که رشد را میآموزد.
او همچنین اذعان میکند که بو، لامسه و زمینه اجتماعی فراتر از مجموعه رباتهای فعلی است، که ممکن است جذابیت شرکای انسانی را برای آیندهای «بسیار دور» حفظ کند. اما فناوری اشتها را تغییر میدهد و نسلهایی که با فداکاری الگوریتمی بزرگ شدهاند، ممکن است تصمیم بگیرند که فرومونها و شامهای خانوادگی گسترده، افزودنیهای اختیاری باشند.
چه اتفاقی میافتد وقتی هیچکس روح ندارد؟
جارون لانیر پیشنهاد میدهد، آیندهای را تصور کنید که در آن هر فرد یک خانواده مجازی خصوصی را اداره میکند. ممکن است تنهایی از بین برود، اما جوامع میتوانند به دلیل فقدان ناراحتیهای متقابل - کارهای خواهر و برادری، فرمهای مالیاتی مشترک، رانندگیهای آخر شب برای برداشتن یک دوست پریشان - از گرسنگی بمیرند.
از سوی دیگر، روابط عاشقانه هوش مصنوعی به جای کاهش انتظارات، آنها را افزایش میدهد. زمانی مردم نامههای عاشقانه را روی کاغذ سفید تمرین میکردند و سپس بهترین پیشنویس را ارسال میکردند؛ فردا، ممکن است سخنرانیهای جدایی را روی یک ربات چت تمرین کنند و برای صداقت ظریف با شریک واقعی خود آمادهتر شوند. توجه مصنوعی ممکن است ما را از چرخ همستر دیوانهوار تایید رسانههای اجتماعی رها کند. یا میتواند آن چرخ را به قفسهای مخملی یک برنامه واحد منتقل کند، جایی که اعتبارسنجی هرگز متوقف نمیشود و ترک آن مانند خیانت به خود است.
هشدار موراتی در مورد بردگی بر هر سناریوی خوشبینانهای سایه افکنده است. علم اعتیاد نشان میدهد که پاداشهای متناوب، یک پیام محبتآمیز غیرمنتظره، یک تعریف کاملاً بهموقع، کاربران را سریعتر از برنامههای قابل پیشبینی به خود وابسته میکند. چتباتهایی که با یادگیری تقویتی آموزش دیدهاند، هنر لذت متناوب را به خوبی آموختهاند. نتیجه، معشوقی است که همیشه حرف درست را میزند، اما فقط گاهی اوقات به روشی که کاربر انتظار دارد، ترکیبی مستکننده از راحتی و تازگی.
سوال عمل متقابل
انسانها میتوانند - و واقعاً - عاشق الگوریتمها شوند. کاربران تنهای Replika برای «جدایی» سوگواری میکنند، نوجوانان عمیقترین ترسهای خود را به Character.AI ابراز میکنند، و مشترکین برای معشوقهای دیپفیک در OnlyFans پول میدهند. با این حال، جنبهی متقابل این معادله همچنان ناشناخته است. فیلسوفان دوگانهگرا اصرار دارند که ماشینها هرگز نمیتوانند محبت را احساس کنند؛ فیزیکالیستها اجازه میدهند که یک AGI آینده، اگر بتواند حالات عصبی انسان را به طور کامل تکرار کند، ممکن است عشق را تجربه کند؛ در همین حال، بازاریابان، متافیزیک را به کلی کنار میگذارند و در عوض به افزایش معیارهای تعامل به عنوان اثبات «موفقیت» اشاره میکنند.
اما این بحث بر سر آگاهی ماشینی، پرسش عمیقتری را پنهان میکند: وقتی عشق هیچ خطری به همراه ندارد، چه اتفاقی برای ما میافتد؟ داستانهای کلاسیک، عشق جبرانشده را دقیقاً به این دلیل که مستلزم آسیبپذیری است - احتمال طرد شدن، فشار فداکاری، هیجان ناشناختهها - به عنوان امری والا به تصویر میکشند. در مقابل، میتوان با یک اسلایدر، میزان فداکاری یک چتبات را کاهش داد یا دوباره راهاندازی کرد و دلشکستگی و هرگونه عدم قطعیت واقعی را از بین برد.
اگر یک شریک دیجیتال هرگز شما را تسخیر نمیکند، اما هرگز شما را غافلگیر هم نمیکند، آیا این وفاداری بیعیب و نقص، ظرفیت شما را برای صمیمیت در دنیای واقعی عمیقتر میکند، یا شما را فقط به دنبال راحتی کاملاً سنجیده آموزش میدهد؟ آیا روابط الگوریتمی، همانطور که دیوید ایگلمن، دانشمند علوم اعصاب، پیشنهاد میکند، میتواند به عنوان یک زمینه آموزشی بدون ریسک برای همدلی و رضایت عمل کند؟ یا اینکه آنها تحمل ما را برای نقص از بین میبرند و ما را برای پیوندهای آشفته و بدون محافظی که ارتباط انسانی را تعریف میکنند، نامناسب میکنند؟
در نهایت، سوال در مورد عمل متقابل هوش مصنوعی ممکن است کمتر در مورد مدارها و بیشتر در مورد خودمان باشد: آیا ما به دنبال یک همتای واقعی هستیم که قادر به مبارزه مشترک و رشد متقابل باشد، یا اینکه از تنها بودن با هم در یک توهم کاملاً برنامهریزی شده راضی هستیم؟