صحبت کردن با یک چتبات هوش مصنوعی میتواند باور به نظریههای توطئه و سایر ایدههای مشکوک را کاهش دهد. یک مطالعه جدید منتشرشده در (PNAS Nexus) نشان میدهد که این تغییرات در باور، وابسته به این نیست که کاربر، هوش مصنوعی را بهعنوان یک ماشین یا یک انسان درک کند؛ این یافته نشان میدهد که قدرت اقناعی پیام در کیفیت استدلالهاست، نه در هویت گوینده. این پژوهش به بدنه رو به رشدی از مطالعات اضافه میشود که نشان میدهد حتی باورهایی که معمولاً مقاوم در برابر اصلاح تلقی میشوند، ممکن است با گفتوگوهای کوتاه و هدفمند تحت تأثیر قرار گیرند.
باور به نظریههای توطئه و ایدههای شبهعلمی اغلب عمیقاً ریشهدار و دشوار برای تغییر دانسته میشود. این باورها ممکن است نیازهای احساسی یا روانشناختی را برآورده کنند، یا توسط روایتهایی تقویت شوند که هرگونه شواهد مخالف را رد میکنند. برای نمونه، کسی که به یک طرح مخفی دولتی باور دارد، ممکن است هرگونه تکذیب رسمی را دلیلی بر تأیید بیشتر توطئه تعبیر کند.
پژوهشهای پیشین نشان دادهاند که گفتوگو با چتباتهای هوش مصنوعی بهویژه گفتوگوهایی که متناسب با باور فرد طراحی شدهاند میتوانند به کاهش قابلتوجهی در میزان قطعیت باور منجر شوند. با این حال، روشن نبود که آیا این نتایج به دلیل دادههای ارائهشده است، یا نحوه بیان پیام، یا اینکه پیامدهنده یک هوش مصنوعی است.
یکی از احتمالات این است که مردم، سیستمهای هوش مصنوعی را خنثیتر و کمتر قضاوتگر نسبت به متخصصان انسانی میبینند. این موضوع میتواند باعث شود افراد برای بازنگری باورهای خود گشادهتر باشند. از سوی دیگر، این هم ممکن است که مردم، استدلالهایی را که از سوی یک منبع انسانی ارائه میشود، معتبرتر بدانند؛ بهویژه زمانی که لحن گفتار طبیعی و محاورهای باشد.
استر بُوَسَن، پژوهشگر پسادکتری دانشگاه کورنل به PsyPost میگوید: «انگیزه ما یک سؤال اصلی بود: آیا هویت منبع واقعاً در اصلاح باورهای ریشهدار اهمیت دارد؟ بسیاری از چارچوبها بهویژه استدلال انگیزشی پیشنهاد میکنند افراد اطلاعات را بر اساس اینکه چه کسی آن را بیان میکند، فیلتر میکنند. اگر پیام از منبعی بیاید که فرد به آن بیاعتماد است یا آن را متعلق به گروهی مخالف میداند، ممکن است حتی در برابر شواهد قوی مقاومت کند. باورهای توطئهای، بهطور خاص، اغلب با هویت فرد گره خوردهاند، بنابراین این مسئله اهمیت ویژه داشت.»
وی ادامه میدهد: «مطالعه ما بررسی میکند که آیا اثر اصلاح باور به پیامدهنده وابسته است یا به کیفیت استدلالها. نبودِ تفاوت میان شرایطی که پیامدهنده بهعنوان AI یا بهعنوان یک کارشناس انسانی معرفی شده، نشان میدهد که در این موقعیت، افراد به محتوا واکنش نشان میدهند (که در همه حالتها یکسان بود)، نه به برچسب منبع. این نکته همچنین به یکی از محدودیتهای رایج در ادبیات پژوهشی اشاره دارد بسیاری از تلاشهای اصلاح باور شکست میخورند، نه به این دلیل که افراد اصلاحناپذیرند، بلکه، چون توضیحاتی که دریافت میکنند ناقص، کمکیفیت یا بیش از حد کلیاند. استدلالهای باکیفیت و متناسب با باور فرد، بسیار مهمتر از این است که چه کسی آنها را ارائه میدهد.»
در این مطالعه، ۹۵۵ شرکتکننده از میان بیش از ۸ هزار نفری که نظرسنجی آنلاین را آغاز کرده بودند انتخاب شدند. از شرکتکنندگان خواسته شد باوری که دارند چه یک نظریه توطئه و چه یک ایدهای که اغلب از سوی متخصصان رد میشود گزارش کنند. نمونهها شامل باور به همکاریهای مخفی دولتی یا نظریههای شبهعلمی درباره بیماریها بود.
هر شرکتکننده ابتدا باور خود را توصیف کرد و میزان اطمینانش به آن را روی مقیاس ۰ تا ۱۰۰ مشخص کرد. سپس در یک گفتوگوی دو مرحلهای با GPT-۴o یک مدل زبانی بزرگ توسعهیافته توسط OpenAI شرکت کرد. در این گفتوگو، هوش مصنوعی تلاش میکرد با استفاده از دادهها و شواهد، با باور فرد مخالفت کند.
شرکتکنندگان بهطور تصادفی به شرایط مختلف آزمایشگاهی تخصیص داده شدند. به برخی گفته شد با هوش مصنوعی صحبت میکنند، در حالیکه برخی دیگر تصور میکردند با یک «کارشناس» انسانی گفتوگو میکنند. علاوه بر این، در نیمی از موارد، AI از لحنی محاورهایتر و شبیه انسان استفاده کرد.
با وجود این تفاوتها، همه شرکتکنندگان یک مجموعه استدلال مشابه دریافت کردند که برای باور خاص هر فرد شخصیسازی شده بود. پس از پایان گفتوگو، شرکتکنندگان دوباره میزان اطمینان به باور خود را ارزیابی کردند.
نتایج نشان داد که باور به نظریههای توطئه بهطور متوسط حدود ۱۲ واحد کاهش یافت، در حالی که باور به سایر ایدههای بیاساس حدود ۶ واحد کاهش داشت. این تغییرات از نظر آماری معنادار بودند و بدون توجه به اینکه AI بهعنوان یک ماشین یا یک انسان توصیف شده بود رخ دادند. لحن خنثی یا محاورهای هوش مصنوعی نیز هیچ اثر قابلسنجشی نداشت.
این الگو حتی در میان افرادی که فکر میکردند با یک انسان صحبت میکنند، برقرار بود. در شرایط «کارشناس»، ۴۵٪ در پرسشنامه پیگیری، گوینده را انسانی توصیف کردند، در حالی که تنها ۲۱٪ احتمال دادند که منبع یک هوش مصنوعی باشد. با این وجود، کاهش باور در هر دو گروه مشابه بود.
بُوَسَن به PsyPost میگوید: «این تأثیرات در سطح فردی متوسطاند، اما در عمل معنادار هستند.تغییر باورهای تثبیتشده حتی چند واحد پس از یک گفتوگوی کوتاه دو مرحلهای، قابل توجه است. این تغییرات با بهترین مداخلات اصلاح باور قابل مقایسه یا حتی بزرگترند. از منظر ارتباطات عمومی، حتی تغییرات کوچک، اگر در مقیاس وسیع رخ دهند، میتوانند اثرات قابلتوجهی داشته باشند.»
وی میافزاید: «همچنین باید یادآوری کرد که حضور AI در زندگی روزمره رو به افزایش است و نگرانیها درباره تأثیر آن نیز بیشتر میشود. یافتههای ما نشان میدهد که این ابزارها میتوانند بهطور مسئولانه و برای اهداف مفید به کار گرفته شوند و اثربخشی آنها بهجایگزینکردن کارشناسان انسانی وابسته نیست. همین رویکرد میتواند در بسیاری از موقعیتهای دیگر که افراد به اطلاعات دقیق، روشن و شخصیسازیشده نیاز دارند بهکار رود. البته باید توجه داشت که همین ابزارها میتوانند سوءاستفاده شوند، و همین اهمیت درک نحوه تأثیرگذاری آنها را بیشتر میکند.»
برای اطمینان از اینکه نتایج به دلیل تفاوت میان افرادی که مطالعه را کامل کردهاند و کسانی که انصراف دادهاند نیست، پژوهشگران افراد حذفشده را نیز در یک تحلیل محافظهکارانه وارد کردند. آنها فرض کردند که شرکتکنندگان رهاکننده، هیچ تغییری در باور تجربه نکردهاند. حتی با این فرض نیز نتایج پایدار باقی ماند.
پژوهشگران همچنین زبان بهکاررفته توسط شرکتکنندگان را تحلیل کردند. افرادی که فکر میکردند با یک AI صحبت میکنند تمایل داشتند از واژگان سادهتر و متنوعی کمتر استفاده کنند؛ این یافته با مطالعات پیشین سازگار است که نشان میدهند مردم هنگام تعامل با ماشینها زبان خود را سادهتر میکنند. اما ساختار یا منطق استدلالهای آنها تفاوت قابلتوجهی نداشت.
بُوَسَن توضیح میدهد: «یکی از نکات کلیدی این است که افرادی که باورهای توطئه دارند، آنطور که تصور میشود در برابر تغییر مقاوم نیستند.وقتی توضیحاتی روشن، دقیق و مبتنی بر شواهد دریافت کنند که مستقیماً به باورشان میپردازد، بسیاری از آنها در دیدگاه خود تجدیدنظر میکنند حتی در موضوعاتی که معمولاً ‘غیرقابل اصلاح’ تصور میشوند. این یافته، این تصور را هم به چالش میکشد که مردم ذاتاً غیرمنطقیاند. نتایج ما نشان میدهد زمانی که استدلالها قوی و مبتنی بر شواهد باشند، افراد حاضرند دیدگاه خود را بهروز کنند. مشکل معمولاً این است که چنین توضیحات باکیفیتی در شرایط روزمره تولید نمیشود. AI کمک میکند چون میتواند سریع اطلاعات مرتبط را جمعآوری کرده و آنها را ساختارمند ارائه دهد، نه به این دلیل که هوش مصنوعی قدرت اقناعی ویژهای دارد. یک انسان با همان سطح دانش نیز احتمالاً میتوانست اثر مشابهی ایجاد کند، اما جمعآوری این حجم از اطلاعات در لحظه برای انسان بسیار دشوار است.»
این مطالعه محدودیتهایی نیز داشت. مدلی که برای گفتوگوها استفاده شد عمدتاً بر دادههایی آموزش دیده که از منابع غربی و انگلیسیزبان هستند. این موضوع ممکن است سبک استدلال و شواهد ارائهشده را بازتابدهنده هنجارهای فرهنگی خاصی کند و ممکن است این اثرات در زمینههای فرهنگی دیگر متفاوت باشد. پژوهشهای آینده میتوانند به اثربخشی مدلهای هوش مصنوعی سازگار با فرهنگهای مختلف بپردازند.
بُوَسَن میگوید: «یکی از سوءبرداشتهای رایج این خواهد بود که نتیجه بگیریم AI ذاتاً متقاعدکنندهتر یا منحصربهفرد در اصلاح باور است. نتایج ما چنین چیزی را تأیید نمیکنند. AI مؤثر بود چون توانست توضیحاتی باکیفیت و متناسب با باور ارائه دهد نه به این دلیل که مردم به آن اعتماد بیشتری داشتند یا قدرت اقناع ویژهای داشت. البته باید توجه داشت که این یافتهها لزوماً به این معنا نیست که ‘منبع’ هیچگاه اهمیت ندارد؛ تنها نشان میدهد که در این زمینه خاص، عامل محدودکننده نبود.»
پژوهشگران قصد دارند این خط تحقیق را ادامه دهند و تصویری کاملتر از روانشناسی باور و شرایطی که گفتوگوی مبتنی بر شواهد مؤثر است، بسازند.
بُوَسَن توضیح میدهد: «میخواهیم بدانیم چرا برخی افراد باور خود را اصلاح میکنند اما برخی دیگر با وجود دریافت همان اطلاعات، تغییری نمیکنند. این شامل بررسی تفاوتهای فردی شناختی، انگیزشی یا ویژگیهای شخصیتی میشود که نحوه واکنش به شواهد مخالف را شکل میدهند. همچنین به ویژگیهای خود باورها علاقهمند هستیم. برخی باورها ممکن است قابل اصلاح باشند چون بر سوءبرداشتهای واقعی استوارند، در حالی که برخی دیگر ممکن است قویتر با هویت یا وفاداریهای گروهی گره خورده باشند. و فراتر از باورهای واقعی و قابل آزمون، قصد داریم باورهای دیگر مثل نگرشهای سیاسی یا باورهایی که مرز ‘درست’ و ‘نادرست’ در آنها مبهمتر است را بررسی کنیم تا ببینیم آیا سازوکارهای مشابهی اعمال میشوند. درک این تفاوتها میتواند به روشنشدن فرایندهای شناختی که اجازه ظهور، تثبیت یا تغییر برخی باورها را میدهند کمک کند.»
وی میافزاید: «در کل، میخواهیم شرایطی را که گفتوگوی مبتنی بر شواهد موفق است، یا شکست میخورد، و آنچه این موضوع درباره روانشناسی باور آشکار میکند، ترسیم کنیم.» بُوَسَن ادامه داد. «بهعنوان بخشی از این تلاش، قصد داریم شرایط چالشبرانگیزتری را نیز آزمایش کنیم برای مثال، موقعیتهایی که در آن AI یک منبع ‘خصمانه’ یا کماعتماد تلقی شود، یا حتی رفتاری داشته باشد که ممکن است مقاومت ایجاد کند.»
به گزارش (psypost) این موقعیتها به ما کمک میکنند حدود اثر را بررسی کنیم و ببینیم یافتههای ما تا چه اندازه فراتر از محیطهای همکاریجویانه قابل تعمیم هستند. در یک جمله، میخواهیم بدانیم آیا مردم عمدتاً به این دلیل نظر خود را تغییر میدهند که شواهد را پردازش میکنند، یا چون میخواهند از هویت خود محافظت کنند.
انتهای پیام/