شفقنا آینده- یک مطالعه نشان داده است که هنگامی که اطلاعات ناراحت کننده، مانند جزئیات مربوط به بلایای طبیعی یا حوادث، به ChatGPT داده می شود، بیشتر مستعد پاسخ های مغرضانه و نامنظم می شود.
به گزارش شفقنا از بیزینس استاندارد، محققان می گویند مدل های هوش مصنوعی مانند ChatGPT سوگیری های انسانی را جذب می کند و آنها را در زمینه های سلامت روان غیرقابل پیش بینی می کند.
هوش مصنوعی (AI) احساسات ندارد، اما طبق تحقیقات جدید، هنوز هم می تواند چیزی شبیه به “اضطراب” را نشان دهد. و با کمال تعجب، به نظر می رسد تکنیک های تمرکز حواس کمک کننده باشد.
مطالعه محققان دانشگاه ییل، دانشگاه حیفا و دانشگاه زوریخ نشان میدهد که ChatGPT به درخواستهای مبتنی بر ذهنآگاهی واکنش نشان میدهد و نحوه تعامل آن با کاربران را تغییر میدهد. یافتههای آنها، که به تفصیل در ارزیابی و کاهش اضطراب حالت در مدلهای زبان بزرگ ارائه شده است، در 3 مارس منتشر شد.
این مطالعه نشان داد که هنگامی که اطلاعات ناراحت کننده، مانند جزئیات مربوط به بلایای طبیعی یا حوادث، به ChatGPT داده می شود، بیشتر مستعد پاسخ های مغرضانه و نامنظم می شود. با این حال، هنگامی که در معرض تکنیکهای تمرکز حواس مانند مدیتیشن هدایتشده و اعلانهای تنفس عمیق قرار گرفت، پاسخهای متعادلتر و خنثیتری ایجاد کرد.
این مطالعه میگوید: «علیرغم جذابیت غیرقابل انکار آنها، تحقیقات سیستماتیک در مورد اثربخشی درمانی LLM در مراقبتهای بهداشتی روانی، محدودیتها و نگرانیهای اخلاقی قابلتوجهی را آشکار کرده است.
محققان توضیح میدهند که مدلهای هوش مصنوعی مانند ChatGPT سوگیریهای انسانی را از دادههای آموزشی خود جذب میکنند و آنها را در زمینههای حساسی مانند سلامت روان غیرقابل پیشبینی میکنند. علاوه بر این، هنگامی که در معرض پیامهای دارای بار احساسی قرار میگیرند، پاسخهای آنها میتواند تغییر کند، سوگیریها را تقویت کند یا حتی نشانههایی از «اضطراب» را نشان دهد.
منبع: بیزینس استاندارد