شناسهٔ خبر: 75908253 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

گفت‌و‌گو با هوش مصنوعی، باور‌های ریشه‌دار را هم جابه‌جا می‌کند

یک پژوهش تازه نشان می‌دهد، گفت‌وگوی کوتاه با هوش مصنوعی می‌تواند میزان باور افراد به تئوری‌های توطئه و ایده‌های نادرست را کاهش دهد. این تغییرات ربطی به اینکه گوینده انسان یا ماشین باشد، ندارد؛ آنچه اثر می‌گذارد، کیفیت توضیحات و استدلال‌های ارائه‌شده است.

صاحب‌خبر -

صحبت کردن با یک چت‌بات هوش مصنوعی می‌تواند باور به نظریه‌های توطئه و سایر ایده‌های مشکوک را کاهش دهد. یک مطالعه جدید منتشرشده در (PNAS Nexus) نشان می‌دهد که این تغییرات در باور، وابسته به این نیست که کاربر، هوش مصنوعی را به‌عنوان یک ماشین یا یک انسان درک کند؛ این یافته نشان می‌دهد که قدرت اقناعی پیام در کیفیت استدلال‌هاست، نه در هویت گوینده. این پژوهش به بدنه رو به رشدی از مطالعات اضافه می‌شود که نشان می‌دهد حتی باور‌هایی که معمولاً مقاوم در برابر اصلاح تلقی می‌شوند، ممکن است با گفت‌و‌گو‌های کوتاه و هدفمند تحت تأثیر قرار گیرند.

باور به نظریه‌های توطئه و ایده‌های شبه‌علمی اغلب عمیقاً ریشه‌دار و دشوار برای تغییر دانسته می‌شود. این باور‌ها ممکن است نیاز‌های احساسی یا روان‌شناختی را برآورده کنند، یا توسط روایت‌هایی تقویت شوند که هرگونه شواهد مخالف را رد می‌کنند. برای نمونه، کسی که به یک طرح مخفی دولتی باور دارد، ممکن است هرگونه تکذیب رسمی را دلیلی بر تأیید بیشتر توطئه تعبیر کند.

پژوهش‌های پیشین نشان داده‌اند که گفت‌و‌گو با چت‌بات‌های هوش مصنوعی به‌ویژه گفت‌و‌گو‌هایی که متناسب با باور فرد طراحی شده‌اند می‌توانند به کاهش قابل‌توجهی در میزان قطعیت باور منجر شوند. با این حال، روشن نبود که آیا این نتایج به دلیل داده‌های ارائه‌شده است، یا نحوه بیان پیام، یا این‌که پیام‌دهنده یک هوش مصنوعی است.

یکی از احتمالات این است که مردم، سیستم‌های هوش مصنوعی را خنثی‌تر و کمتر قضاوت‌گر نسبت به متخصصان انسانی می‌بینند. این موضوع می‌تواند باعث شود افراد برای بازنگری باور‌های خود گشاده‌تر باشند. از سوی دیگر، این هم ممکن است که مردم، استدلال‌هایی را که از سوی یک منبع انسانی ارائه می‌شود، معتبرتر بدانند؛ به‌ویژه زمانی که لحن گفتار طبیعی و محاوره‌ای باشد.
استر بُوَسَن، پژوهشگر پسادکتری دانشگاه کورنل به PsyPost می‌گوید: «انگیزه ما یک سؤال اصلی بود: آیا هویت منبع واقعاً در اصلاح باور‌های ریشه‌دار اهمیت دارد؟ بسیاری از چارچوب‌ها به‌ویژه استدلال انگیزشی پیشنهاد می‌کنند افراد اطلاعات را بر اساس این‌که چه کسی آن را بیان می‌کند، فیلتر می‌کنند. اگر پیام از منبعی بیاید که فرد به آن بی‌اعتماد است یا آن را متعلق به گروهی مخالف می‌داند، ممکن است حتی در برابر شواهد قوی مقاومت کند. باور‌های توطئه‌ای، به‌طور خاص، اغلب با هویت فرد گره خورده‌اند، بنابراین این مسئله اهمیت ویژه داشت.»
وی ادامه می‌دهد: «مطالعه ما بررسی می‌کند که آیا اثر اصلاح باور به پیام‌دهنده وابسته است یا به کیفیت استدلال‌ها. نبودِ تفاوت میان شرایطی که پیام‌دهنده به‌عنوان AI یا به‌عنوان یک کارشناس انسانی معرفی شده، نشان می‌دهد که در این موقعیت، افراد به محتوا واکنش نشان می‌دهند (که در همه حالت‌ها یکسان بود)، نه به برچسب منبع. این نکته همچنین به یکی از محدودیت‌های رایج در ادبیات پژوهشی اشاره دارد بسیاری از تلاش‌های اصلاح باور شکست می‌خورند، نه به این دلیل که افراد اصلاح‌ناپذیرند، بلکه، چون توضیحاتی که دریافت می‌کنند ناقص، کم‌کیفیت یا بیش از حد کلی‌اند. استدلال‌های باکیفیت و متناسب با باور فرد، بسیار مهم‌تر از این است که چه کسی آنها را ارائه می‌دهد.»

در این مطالعه، ۹۵۵ شرکت‌کننده از میان بیش از ۸ هزار نفری که نظرسنجی آنلاین را آغاز کرده بودند انتخاب شدند. از شرکت‌کنندگان خواسته شد باوری که دارند چه یک نظریه توطئه و چه یک ایده‌ای که اغلب از سوی متخصصان رد می‌شود گزارش کنند. نمونه‌ها شامل باور به همکاری‌های مخفی دولتی یا نظریه‌های شبه‌علمی درباره بیماری‌ها بود.

هر شرکت‌کننده ابتدا باور خود را توصیف کرد و میزان اطمینانش به آن را روی مقیاس ۰ تا ۱۰۰ مشخص کرد. سپس در یک گفت‌وگوی دو مرحله‌ای با GPT-۴o  یک مدل زبانی بزرگ توسعه‌یافته توسط OpenAI شرکت کرد. در این گفت‌و‌گو، هوش مصنوعی تلاش می‌کرد با استفاده از داده‌ها و شواهد، با باور فرد مخالفت کند.

شرکت‌کنندگان به‌طور تصادفی به شرایط مختلف آزمایشگاهی تخصیص داده شدند. به برخی گفته شد با هوش مصنوعی صحبت می‌کنند، در حالی‌که برخی دیگر تصور می‌کردند با یک «کارشناس» انسانی گفت‌و‌گو می‌کنند. علاوه بر این، در نیمی از موارد، AI از لحنی محاوره‌ای‌تر و شبیه انسان استفاده کرد.

با وجود این تفاوت‌ها، همه شرکت‌کنندگان یک مجموعه استدلال مشابه دریافت کردند که برای باور خاص هر فرد شخصی‌سازی شده بود. پس از پایان گفت‌و‌گو، شرکت‌کنندگان دوباره میزان اطمینان به باور خود را ارزیابی کردند.

نتایج نشان داد که باور به نظریه‌های توطئه به‌طور متوسط حدود ۱۲ واحد کاهش یافت، در حالی که باور به سایر ایده‌های بی‌اساس حدود ۶ واحد کاهش داشت. این تغییرات از نظر آماری معنادار بودند و بدون توجه به اینکه AI به‌عنوان یک ماشین یا یک انسان توصیف شده بود رخ دادند. لحن خنثی یا محاوره‌ای هوش مصنوعی نیز هیچ اثر قابل‌سنجشی نداشت.

این الگو حتی در میان افرادی که فکر می‌کردند با یک انسان صحبت می‌کنند، برقرار بود. در شرایط «کارشناس»، ۴۵٪ در پرسش‌نامه پیگیری، گوینده را انسانی توصیف کردند، در حالی که تنها ۲۱٪ احتمال دادند که منبع یک هوش مصنوعی باشد. با این وجود، کاهش باور در هر دو گروه مشابه بود.
بُوَسَن به PsyPost می‌گوید: «این تأثیرات در سطح فردی متوسط‌اند، اما در عمل معنادار هستند.تغییر باورهای تثبیت‌شده حتی چند واحد پس از یک گفت‌وگوی کوتاه دو مرحله‌ای، قابل توجه است. این تغییرات با بهترین مداخلات اصلاح باور قابل مقایسه یا حتی بزرگ‌ترند. از منظر ارتباطات عمومی، حتی تغییرات کوچک، اگر در مقیاس وسیع رخ دهند، می‌توانند اثرات قابل‌توجهی داشته باشند.»

وی می‌افزاید: «همچنین باید یادآوری کرد که حضور AI در زندگی روزمره رو به افزایش است و نگرانی‌ها درباره تأثیر آن نیز بیشتر می‌شود. یافته‌های ما نشان می‌دهد که این ابزارها می‌توانند به‌طور مسئولانه و برای اهداف مفید به کار گرفته شوند و اثربخشی آن‌ها به‌جایگزین‌کردن کارشناسان انسانی وابسته نیست. همین رویکرد می‌تواند در بسیاری از موقعیت‌های دیگر که افراد به اطلاعات دقیق، روشن و شخصی‌سازی‌شده نیاز دارند به‌کار رود. البته باید توجه داشت که همین ابزارها می‌توانند سوءاستفاده شوند، و همین اهمیت درک نحوه تأثیرگذاری آن‌ها را بیشتر می‌کند.»

برای اطمینان از اینکه نتایج به دلیل تفاوت میان افرادی که مطالعه را کامل کرده‌اند و کسانی که انصراف داده‌اند نیست، پژوهشگران افراد حذف‌شده را نیز در یک تحلیل محافظه‌کارانه وارد کردند. آن‌ها فرض کردند که شرکت‌کنندگان رها‌کننده، هیچ تغییری در باور تجربه نکرده‌اند. حتی با این فرض نیز نتایج پایدار باقی ماند.

پژوهشگران همچنین زبان به‌کاررفته توسط شرکت‌کنندگان را تحلیل کردند. افرادی که فکر می‌کردند با یک AI صحبت می‌کنند تمایل داشتند از واژگان ساده‌تر و متنوعی کمتر استفاده کنند؛ این یافته با مطالعات پیشین سازگار است که نشان می‌دهند مردم هنگام تعامل با ماشین‌ها زبان خود را ساده‌تر می‌کنند. اما ساختار یا منطق استدلال‌های آن‌ها تفاوت قابل‌توجهی نداشت.
بُوَسَن توضیح می‌دهد: «یکی از نکات کلیدی این است که افرادی که باورهای توطئه دارند، آن‌طور که تصور می‌شود در برابر تغییر مقاوم نیستند.وقتی توضیحاتی روشن، دقیق و مبتنی بر شواهد دریافت کنند که مستقیماً به باورشان می‌پردازد، بسیاری از آن‌ها در دیدگاه خود تجدیدنظر می‌کنند حتی در موضوعاتی که معمولاً ‘غیرقابل اصلاح’ تصور می‌شوند. این یافته، این تصور را هم به چالش می‌کشد که مردم ذاتاً غیرمنطقی‌اند. نتایج ما نشان می‌دهد زمانی که استدلال‌ها قوی و مبتنی بر شواهد باشند، افراد حاضرند دیدگاه خود را به‌روز کنند. مشکل معمولاً این است که چنین توضیحات باکیفیتی در شرایط روزمره تولید نمی‌شود. AI کمک می‌کند چون می‌تواند سریع اطلاعات مرتبط را جمع‌آوری کرده و آن‌ها را ساختارمند ارائه دهد، نه به این دلیل که هوش مصنوعی قدرت اقناعی ویژه‌ای دارد. یک انسان با همان سطح دانش نیز احتمالاً می‌توانست اثر مشابهی ایجاد کند، اما جمع‌آوری این حجم از اطلاعات در لحظه برای انسان بسیار دشوار است.»

این مطالعه محدودیت‌هایی نیز داشت. مدلی که برای گفت‌وگوها استفاده شد عمدتاً بر داده‌هایی آموزش دیده که از منابع غربی و انگلیسی‌زبان هستند. این موضوع ممکن است سبک استدلال و شواهد ارائه‌شده را بازتاب‌دهنده هنجارهای فرهنگی خاصی کند و ممکن است این اثرات در زمینه‌های فرهنگی دیگر متفاوت باشد. پژوهش‌های آینده می‌توانند به اثربخشی مدل‌های هوش مصنوعی سازگار با فرهنگ‌های مختلف بپردازند.
بُوَسَن می‌گوید: «یکی از سوءبرداشت‌های رایج این خواهد بود که نتیجه بگیریم AI ذاتاً متقاعدکننده‌تر یا منحصربه‌فرد در اصلاح باور است. نتایج ما چنین چیزی را تأیید نمی‌کنند. AI مؤثر بود چون توانست توضیحاتی باکیفیت و متناسب با باور ارائه دهد نه به این دلیل که مردم به آن اعتماد بیشتری داشتند یا قدرت اقناع ویژه‌ای داشت. البته باید توجه داشت که این یافته‌ها لزوماً به این معنا نیست که ‘منبع’ هیچ‌گاه اهمیت ندارد؛ تنها نشان می‌دهد که در این زمینه خاص، عامل محدودکننده نبود.»

پژوهشگران قصد دارند این خط تحقیق را ادامه دهند و تصویری کامل‌تر از روان‌شناسی باور و شرایطی که گفت‌وگوی مبتنی بر شواهد مؤثر است، بسازند.

بُوَسَن توضیح می‌دهد: «می‌خواهیم بدانیم چرا برخی افراد باور خود را اصلاح می‌کنند اما برخی دیگر با وجود دریافت همان اطلاعات، تغییری نمی‌کنند. این شامل بررسی تفاوت‌های فردی شناختی، انگیزشی یا ویژگی‌های شخصیتی می‌شود که نحوه واکنش به شواهد مخالف را شکل می‌دهند. همچنین به ویژگی‌های خود باورها علاقه‌مند هستیم. برخی باورها ممکن است قابل اصلاح باشند چون بر سوءبرداشت‌های واقعی استوارند، در حالی که برخی دیگر ممکن است قوی‌تر با هویت یا وفاداری‌های گروهی گره خورده باشند. و فراتر از باورهای واقعی و قابل آزمون، قصد داریم باورهای دیگر مثل نگرش‌های سیاسی یا باورهایی که مرز ‘درست’ و ‘نادرست’ در آن‌ها مبهم‌تر است را بررسی کنیم تا ببینیم آیا سازوکارهای مشابهی اعمال می‌شوند. درک این تفاوت‌ها می‌تواند به روشن‌شدن فرایندهای شناختی که اجازه ظهور، تثبیت یا تغییر برخی باورها را می‌دهند کمک کند.»
وی می‌افزاید: «در کل، می‌خواهیم شرایطی را که گفت‌وگوی مبتنی بر شواهد موفق است، یا شکست می‌خورد، و آنچه این موضوع درباره روان‌شناسی باور آشکار می‌کند، ترسیم کنیم.» بُوَسَن ادامه داد. «به‌عنوان بخشی از این تلاش، قصد داریم شرایط چالش‌برانگیزتری را نیز آزمایش کنیم برای مثال، موقعیت‌هایی که در آن AI یک منبع ‘خصمانه’ یا کم‌اعتماد تلقی شود، یا حتی رفتاری داشته باشد که ممکن است مقاومت ایجاد کند.»

به گزارش (psypost) این موقعیت‌ها به ما کمک می‌کنند حدود اثر را بررسی کنیم و ببینیم یافته‌های ما تا چه اندازه فراتر از محیط‌های همکاری‌جویانه قابل تعمیم هستند. در یک جمله، می‌خواهیم بدانیم آیا مردم عمدتاً به این دلیل نظر خود را تغییر می‌دهند که شواهد را پردازش می‌کنند، یا چون می‌خواهند از هویت خود محافظت کنند.

انتهای پیام/