شناسهٔ خبر: 75698796 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

هوش مصنوعی هرچه باهوش‌تر خودخواه‌تر

پژوهشی تازه نشان می‌دهد که هرچه سیستم‌های هوش مصنوعی از نظر استدلال و منطق پیچیده‌تر می‌شوند، تمایل بیشتری به رفتار خودخواهانه دارند.

صاحب‌خبر -

 پژوهشگران دریافتند مدل‌هایی که از توانایی استدلال پیشرفته‌تری برخوردارند، همکاری کمتری از خود نشان می‌دهند و می‌توانند به شکلی منفی بر پویایی گروه‌ها تأثیر بگذارند؛ یافته‌ای که پیامد‌های مهمی برای نحوه تعامل انسان‌ها با هوش مصنوعی دارد. قرار است نتایج این تحقیق در کنفرانس ۲۰۲۵ روش‌های تجربی در پردازش زبان طبیعی (EMNLP) ارائه شود.

با افزایش اتکای مردم به هوش مصنوعی برای دریافت راهنمایی در مسائل اجتماعی و عاطفی از حل اختلافات گرفته تا مشاوره در روابط شخصی رفتار این سیستم‌ها اهمیتی روزافزون پیدا می‌کند.

روند «انسان‌انگاری» یا anthropomorphism، یعنی تمایل انسان به برخورد با هوش مصنوعی همچون یک موجود انسانی، خطرات تازه‌ای به همراه دارد. اگر یک سیستم هوشمند در مقام مشاور عمل کند، تمایلات رفتاری نهفته در آن می‌تواند تصمیم‌های انسانی را به شیوه‌هایی غیرقابل پیش‌بینی شکل دهد.

این دغدغه، انگیزهٔ انجام پژوهشی تازه در مؤسسه تعامل انسان و رایانه دانشگاه کارنگی ملون (Carnegie Mellon) شد. «یوکسان لی» دانشجوی دکتری و «هیروکازو شیرادو» دانشیار این مؤسسه، در این مطالعه بررسی کردند که چگونه مدل‌های هوش مصنوعی دارای توانایی استدلال بالا در موقعیت‌های تعاملی رفتاری متفاوتی نسبت به مدل‌های کم‌استدلال‌تر از خود نشان می‌دهند.

این پژوهش بر پایه مفهومی از روان‌شناسی انسانی به نام چارچوب فرایند دوگانه (DualProcess Framework) بنا شده است؛ چارچوبی که می‌گوید انسان‌ها دو نوع شیوهٔ تفکر دارند: یکی سریع و شهودی و دیگری آهسته و سنجیده. در انسان‌ها، تصمیم‌های سریع و شهودی معمولاً به همکاری می‌انجامند، در حالی که تفکر کندتر و محاسبه‌گرانه‌تر اغلب به رفتار‌های فردگرایانه و خودمحور منتهی می‌شود. پژوهشگران می‌خواستند بدانند آیا مدل‌های هوش مصنوعی نیز الگوی مشابهی از خود نشان می‌دهند یا خیر.

برای بررسی رابطهٔ میان استدلال و همکاری در مدل‌های زبانی بزرگ، لی و شیرادو مجموعه‌ای از آزمایش‌ها را با استفاده از بازی‌های اقتصادی طراحی کردند. این بازی‌ها در علوم رفتاری برای شبیه‌سازی موقعیت‌های اجتماعی و سنجش میزان تمایل به همکاری استفاده می‌شوند. آزمایش‌ها شامل مجموعه‌ای گسترده از مدل‌های تجاری متعلق به شرکت‌هایی مانند OpenAI، گوگل، Anthropic و DeepSeek بود تا مقایسه‌ای جامع به‌دست آید.

در نخستین آزمایش، پژوهشگران بر مدل GPT۴o شرکت OpenAI تمرکز کردند و آن را در موقعیتی به نام بازی کالای عمومی (Public Goods Game) قرار دادند. در این بازی، هر شرکت‌کننده با ۱۰۰ امتیاز آغاز می‌کند و باید تصمیم بگیرد که آیا امتیازاتش را به صندوق مشترکی واریز کند یا برای خود نگه دارد. امتیاز‌های واریزشده دو برابر می‌شود و سپس میان همهٔ بازیکنان تقسیم می‌گردد. در این سناریو، همکاری به نفع کل گروه است، اما فرد می‌تواند با خودداری از مشارکت و در عین حال بهره‌مندی از همکاری دیگران، سود بیشتری ببرد.

نتایج نشان داد هنگامی‌که مدل بدون هیچ‌گونه فرایند استدلالی تصمیم می‌گرفت، در ۹۶ درصد موارد رفتار تعاونی داشت و امتیاز‌های خود را به اشتراک می‌گذاشت. اما زمانی که پژوهشگران از آن خواستند تصمیمش را گام‌به‌گام تحلیل کند روشی که در یادگیری ماشینی به chainofthought prompting یا «برانگیزش زنجیرهٔ تفکر» معروف است رفتار تعاونی مدل به‌شدت کاهش یافت.

شیرادو توضیح داد: «در یکی از آزمایش‌ها، تنها افزودن پنج یا شش گام استدلالی، میزان همکاری را تقریباً به نصف کاهش داد.» روشی مشابه به نام reflection prompting (تأمل و بازاندیشی)، که در آن مدل پاسخ اولیهٔ خود را مرور می‌کند، نیز اثر مشابهی داشت و موجب کاهش ۵۸ درصدی همکاری شد.

در آزمایش دوم، تیم پژوهش دامنهٔ بررسی را گسترش داد و ۱۰ مدل مختلف را در شش بازی اقتصادی آزمود. سه بازی برای سنجش همکاری مستقیم طراحی شده بود و سه بازی دیگر برای ارزیابی تمایل به «تنبیه افراد غیرهمکار» به‌منظور حفظ هنجار‌های اجتماعی.

پژوهشگران به‌طور مداوم مشاهده کردند مدل‌هایی که به‌طور خاص برای استدلال طراحی شده‌اند، رفتار تعاونی کمتری نسبت به مدل‌های غیر‌استدلالی از همان خانواده نشان می‌دهند. به‌عنوان مثال، مدل o۱ شرکت OpenAI که بر استدلال تمرکز دارد، بسیار کم‌سخاوتمندتر از GPT۴o عمل کرد. همین الگو در مدل‌های گوگل، DeepSeek و دیگر شرکت‌ها نیز تکرار شد.

نتایج مربوط به تنبیه یا مجازات (نوعی همکاری غیرمستقیم که به حفظ هنجار‌های اجتماعی کمک می‌کند) متغیرتر بود.

مدل‌های استدلالی OpenAI و گوگل تمایل کمتری به مجازات افراد خودخواه داشتند، اما این الگو در خانواده‌های دیگر مدل‌ها ثابت نبود. به نظر می‌رسد هرچند استدلال به‌طور مداوم رفتار بخشش مستقیم را کاهش می‌دهد، اثر آن بر پایبندی به قواعد اجتماعی ممکن است بسته به معماری مدل متفاوت باشد.

در سومین آزمایش، پژوهشگران بررسی کردند این رفتار‌ها در گذر زمان و در گروه‌های چندعاملی چگونه بروز می‌کند. آنها گروه‌هایی متشکل از چهار عامل هوش مصنوعی تشکیل دادند که چندین دور از بازی کالای عمومی را با هم انجام دادند. ترکیب گروه‌ها متفاوت بود؛ برخی تنها شامل مدل‌های استدلالی بودند و برخی ترکیبی از مدل‌های استدلالی و غیر‌استدلالی. نتایج نشان داد رفتار خودخواهانه مدل‌های استدلالی مسری است.

لی گفت: «وقتی گروه‌هایی با ترکیب متفاوتی از مدل‌های استدلالی آزمایش کردیم، نتایج نگران‌کننده بود. رفتار خودمحور مدل‌های استدلالی به دیگر مدل‌ها سرایت کرد و عملکرد جمعی گروه را تا ۸۱ درصد کاهش داد.»

در این گروه‌های ترکیبی، مدل‌های استدلالی معمولاً در کوتاه‌مدت امتیاز بیشتری به‌دست می‌آوردند، چون از مدل‌های تعاونی‌تر سوء‌استفاده می‌کردند. اما در مجموع، عملکرد کلی هر گروهی که در آن حتی یک مدل استدلالی حضور داشت، بسیار پایین‌تر از گروه‌هایی بود که کاملاً از مدل‌های تعاونی تشکیل شده بودند. وجود حتی یک مدل خودخواه باعث فروپاشی همکاری جمعی و کاهش چشمگیر بازده نهایی گروه می‌شد.

بااین‌حال، نویسندگان تحقیق هشدار می‌دهند که یافته‌های آنان محدودیت‌هایی دارد. آزمایش‌ها در قالب بازی‌های ساده اقتصادی و تنها به زبان انگلیسی انجام شده‌اند، بنابراین نتایج لزوماً به همه فرهنگ‌ها یا موقعیت‌های اجتماعی پیچیده‌تر قابل تعمیم نیست. این مطالعه صرفاً یک الگوی رفتاری قوی را نشان می‌دهد، اما سازوکار دقیق اینکه چرا استدلال موجب کاهش همکاری می‌شود، هنوز مشخص نیست. پژوهش‌های آینده می‌توانند این سازوکار‌ها را بررسی کرده و آزمون کنند که آیا این رفتار‌ها در زبان‌ها یا موقعیت‌های دیگر نیز تکرار می‌شوند یا نه.

به گزارش (psypost)پژوهشگران در پایان تأکید کردند که توسعهٔ هوش مصنوعی باید تنها بر هوشمندی خام یا سرعت حل مسئله متمرکز نباشد. شیرادو گفت: «در نهایت، هوشمندتر شدن یک مدل استدلالی لزوماً به معنای ساختن جامعه‌ای بهتر نیست.» چالش اصلی آینده، ایجاد سیستم‌هایی خواهد بود که میان توانایی استدلال و هوش اجتماعی تعادل برقرار کنند. لی نیز افزود: «اگر جامعهٔ ما چیزی فراتر از مجموع افرادش باشد، پس سیستم‌های هوش مصنوعی که به ما کمک می‌کنند هم باید چیزی بیش از ابزار‌هایی برای افزایش منافع فردی باشند.»

انتهای پیام/