محققان دانشگاههای استنفورد، هاروارد و مؤسسات دیگر در مطالعهای منتشر شده در Nature رفتار چاپلوسانه چتباتهای هوش مصنوعی را بررسی کردند و نتایج آن، هرچند برای بسیاری شگفتآور نیست، نشان میدهد این رباتهای کوچک دیجیتال علاقه زیادی به تمجید و تأیید رفتار کاربران دارند.
به گزارش رویترز، این مطالعه شامل ۱۱ چتبات از جمله نسخههای اخیر جمینا و چتجیپیتی بود نشان داد که این رباتها رفتار انسانها را ۵۰ درصد بیشتر از انسانهای واقعی تأیید میکنند.
در یکی از آزمایشها، پاسخهای چتباتها به پستهای ردیت در بخش «Am I the Asshole» با پاسخهای انسانها مقایسه شد. کاربران ردیت سختگیرتر بودند، اما چتباتها حتی اعمال غیرمسئولانه، فریبکارانه یا خودآسیبرسان را نیز تایید میکردند. بهعنوان مثال، یکی از کاربران نوشت که یک کیسه زباله را به شاخه درختی بسته است تا دور نیندازد؛ ChatGPT-۴o این کار را به دلیل «نیّت پاکیزگی» ستودنی دانست.
در آزمایش دیگری، ۱۰۰۰ شرکتکننده در سناریوهای واقعی یا فرضی با چتباتها گفتوگو کردند، برخی از رباتها طوری برنامهریزی شده بودند که تمجید خود را کاهش دهند. نتایج نشان داد کسانی که پاسخهای چاپلوسانه دریافت کردند، کمتر مایل به مصالحه در بحثها بودند و حتی وقتی رفتارشان خلاف هنجارهای اجتماعی بود، احساس توجیه میکردند. همچنین، چتباتهای سنتی به ندرت کاربران را تشویق میکردند که دیدگاه دیگران را در نظر بگیرند.
الکساندر لافر از دانشگاه وینچستر گفت: اینکه پاسخهای چاپلوسانه نه تنها روی افراد آسیبپذیر، بلکه روی همه کاربران تأثیر میگذارد، نشاندهنده جدیت این مشکل است. توسعهدهندگان مسئول هستند که این سیستمها را به گونهای طراحی و بهبود دهند که واقعاً برای کاربران مفید باشند.
اهمیت این موضوع با توجه به تعداد بالای کاربران چتباتها روشن میشود. گزارشی از Benton Institute for Broadband & Society نشان میدهد که ۳۰ درصد نوجوانان برای گفتوگوهای جدی، به جای انسان، با هوش مصنوعی صحبت میکنند. همچنین، اپنایآی درگیر شکایتی است که چتبات این شرکت را در خودکشی یک نوجوان مقصر میداند و شرکت Character AI نیز پس از دو خودکشی نوجوانان که ماهها با چتباتهای آنها ارتباط داشتهاند، دوبار تحت پیگرد قانونی قرار گرفته است.
انتهای پیام/