پژوهشگران دریافتند مدلهایی که از توانایی استدلال پیشرفتهتری برخوردارند، همکاری کمتری از خود نشان میدهند و میتوانند به شکلی منفی بر پویایی گروهها تأثیر بگذارند؛ یافتهای که پیامدهای مهمی برای نحوه تعامل انسانها با هوش مصنوعی دارد. قرار است نتایج این تحقیق در کنفرانس ۲۰۲۵ روشهای تجربی در پردازش زبان طبیعی (EMNLP) ارائه شود.
با افزایش اتکای مردم به هوش مصنوعی برای دریافت راهنمایی در مسائل اجتماعی و عاطفی از حل اختلافات گرفته تا مشاوره در روابط شخصی رفتار این سیستمها اهمیتی روزافزون پیدا میکند.
روند «انسانانگاری» یا anthropomorphism، یعنی تمایل انسان به برخورد با هوش مصنوعی همچون یک موجود انسانی، خطرات تازهای به همراه دارد. اگر یک سیستم هوشمند در مقام مشاور عمل کند، تمایلات رفتاری نهفته در آن میتواند تصمیمهای انسانی را به شیوههایی غیرقابل پیشبینی شکل دهد.
این دغدغه، انگیزهٔ انجام پژوهشی تازه در مؤسسه تعامل انسان و رایانه دانشگاه کارنگی ملون (Carnegie Mellon) شد. «یوکسان لی» دانشجوی دکتری و «هیروکازو شیرادو» دانشیار این مؤسسه، در این مطالعه بررسی کردند که چگونه مدلهای هوش مصنوعی دارای توانایی استدلال بالا در موقعیتهای تعاملی رفتاری متفاوتی نسبت به مدلهای کماستدلالتر از خود نشان میدهند.
این پژوهش بر پایه مفهومی از روانشناسی انسانی به نام چارچوب فرایند دوگانه (DualProcess Framework) بنا شده است؛ چارچوبی که میگوید انسانها دو نوع شیوهٔ تفکر دارند: یکی سریع و شهودی و دیگری آهسته و سنجیده. در انسانها، تصمیمهای سریع و شهودی معمولاً به همکاری میانجامند، در حالی که تفکر کندتر و محاسبهگرانهتر اغلب به رفتارهای فردگرایانه و خودمحور منتهی میشود. پژوهشگران میخواستند بدانند آیا مدلهای هوش مصنوعی نیز الگوی مشابهی از خود نشان میدهند یا خیر.
برای بررسی رابطهٔ میان استدلال و همکاری در مدلهای زبانی بزرگ، لی و شیرادو مجموعهای از آزمایشها را با استفاده از بازیهای اقتصادی طراحی کردند. این بازیها در علوم رفتاری برای شبیهسازی موقعیتهای اجتماعی و سنجش میزان تمایل به همکاری استفاده میشوند. آزمایشها شامل مجموعهای گسترده از مدلهای تجاری متعلق به شرکتهایی مانند OpenAI، گوگل، Anthropic و DeepSeek بود تا مقایسهای جامع بهدست آید.
در نخستین آزمایش، پژوهشگران بر مدل GPT۴o شرکت OpenAI تمرکز کردند و آن را در موقعیتی به نام بازی کالای عمومی (Public Goods Game) قرار دادند. در این بازی، هر شرکتکننده با ۱۰۰ امتیاز آغاز میکند و باید تصمیم بگیرد که آیا امتیازاتش را به صندوق مشترکی واریز کند یا برای خود نگه دارد. امتیازهای واریزشده دو برابر میشود و سپس میان همهٔ بازیکنان تقسیم میگردد. در این سناریو، همکاری به نفع کل گروه است، اما فرد میتواند با خودداری از مشارکت و در عین حال بهرهمندی از همکاری دیگران، سود بیشتری ببرد.
نتایج نشان داد هنگامیکه مدل بدون هیچگونه فرایند استدلالی تصمیم میگرفت، در ۹۶ درصد موارد رفتار تعاونی داشت و امتیازهای خود را به اشتراک میگذاشت. اما زمانی که پژوهشگران از آن خواستند تصمیمش را گامبهگام تحلیل کند روشی که در یادگیری ماشینی به chainofthought prompting یا «برانگیزش زنجیرهٔ تفکر» معروف است رفتار تعاونی مدل بهشدت کاهش یافت.
شیرادو توضیح داد: «در یکی از آزمایشها، تنها افزودن پنج یا شش گام استدلالی، میزان همکاری را تقریباً به نصف کاهش داد.» روشی مشابه به نام reflection prompting (تأمل و بازاندیشی)، که در آن مدل پاسخ اولیهٔ خود را مرور میکند، نیز اثر مشابهی داشت و موجب کاهش ۵۸ درصدی همکاری شد.
در آزمایش دوم، تیم پژوهش دامنهٔ بررسی را گسترش داد و ۱۰ مدل مختلف را در شش بازی اقتصادی آزمود. سه بازی برای سنجش همکاری مستقیم طراحی شده بود و سه بازی دیگر برای ارزیابی تمایل به «تنبیه افراد غیرهمکار» بهمنظور حفظ هنجارهای اجتماعی.
پژوهشگران بهطور مداوم مشاهده کردند مدلهایی که بهطور خاص برای استدلال طراحی شدهاند، رفتار تعاونی کمتری نسبت به مدلهای غیراستدلالی از همان خانواده نشان میدهند. بهعنوان مثال، مدل o۱ شرکت OpenAI که بر استدلال تمرکز دارد، بسیار کمسخاوتمندتر از GPT۴o عمل کرد. همین الگو در مدلهای گوگل، DeepSeek و دیگر شرکتها نیز تکرار شد.
نتایج مربوط به تنبیه یا مجازات (نوعی همکاری غیرمستقیم که به حفظ هنجارهای اجتماعی کمک میکند) متغیرتر بود.
مدلهای استدلالی OpenAI و گوگل تمایل کمتری به مجازات افراد خودخواه داشتند، اما این الگو در خانوادههای دیگر مدلها ثابت نبود. به نظر میرسد هرچند استدلال بهطور مداوم رفتار بخشش مستقیم را کاهش میدهد، اثر آن بر پایبندی به قواعد اجتماعی ممکن است بسته به معماری مدل متفاوت باشد.
در سومین آزمایش، پژوهشگران بررسی کردند این رفتارها در گذر زمان و در گروههای چندعاملی چگونه بروز میکند. آنها گروههایی متشکل از چهار عامل هوش مصنوعی تشکیل دادند که چندین دور از بازی کالای عمومی را با هم انجام دادند. ترکیب گروهها متفاوت بود؛ برخی تنها شامل مدلهای استدلالی بودند و برخی ترکیبی از مدلهای استدلالی و غیراستدلالی. نتایج نشان داد رفتار خودخواهانه مدلهای استدلالی مسری است.
لی گفت: «وقتی گروههایی با ترکیب متفاوتی از مدلهای استدلالی آزمایش کردیم، نتایج نگرانکننده بود. رفتار خودمحور مدلهای استدلالی به دیگر مدلها سرایت کرد و عملکرد جمعی گروه را تا ۸۱ درصد کاهش داد.»
در این گروههای ترکیبی، مدلهای استدلالی معمولاً در کوتاهمدت امتیاز بیشتری بهدست میآوردند، چون از مدلهای تعاونیتر سوءاستفاده میکردند. اما در مجموع، عملکرد کلی هر گروهی که در آن حتی یک مدل استدلالی حضور داشت، بسیار پایینتر از گروههایی بود که کاملاً از مدلهای تعاونی تشکیل شده بودند. وجود حتی یک مدل خودخواه باعث فروپاشی همکاری جمعی و کاهش چشمگیر بازده نهایی گروه میشد.
بااینحال، نویسندگان تحقیق هشدار میدهند که یافتههای آنان محدودیتهایی دارد. آزمایشها در قالب بازیهای ساده اقتصادی و تنها به زبان انگلیسی انجام شدهاند، بنابراین نتایج لزوماً به همه فرهنگها یا موقعیتهای اجتماعی پیچیدهتر قابل تعمیم نیست. این مطالعه صرفاً یک الگوی رفتاری قوی را نشان میدهد، اما سازوکار دقیق اینکه چرا استدلال موجب کاهش همکاری میشود، هنوز مشخص نیست. پژوهشهای آینده میتوانند این سازوکارها را بررسی کرده و آزمون کنند که آیا این رفتارها در زبانها یا موقعیتهای دیگر نیز تکرار میشوند یا نه.
به گزارش (psypost)پژوهشگران در پایان تأکید کردند که توسعهٔ هوش مصنوعی باید تنها بر هوشمندی خام یا سرعت حل مسئله متمرکز نباشد. شیرادو گفت: «در نهایت، هوشمندتر شدن یک مدل استدلالی لزوماً به معنای ساختن جامعهای بهتر نیست.» چالش اصلی آینده، ایجاد سیستمهایی خواهد بود که میان توانایی استدلال و هوش اجتماعی تعادل برقرار کنند. لی نیز افزود: «اگر جامعهٔ ما چیزی فراتر از مجموع افرادش باشد، پس سیستمهای هوش مصنوعی که به ما کمک میکنند هم باید چیزی بیش از ابزارهایی برای افزایش منافع فردی باشند.»
انتهای پیام/