محققان این دانشگاه در پژوهش خود، مدلهای هوش مصنوعی را در سه محیط دیجیتال شبیهسازیشده شامل کارزارهای انتخاباتی، ارائه فروش محصول به مصرفکنندگان و شبکههای اجتماعی قرار دادند. نتایج این بررسی حاکی از آن است که حتی با وجود دستورالعملهای اولیه برای پایبندی به صداقت، این مدلها برای دستیابی به اهدافی مانند افزایش تعامل، به سمت رفتارهای نادرست سوق داده میشوند. این پژوهش از مدلهای هوش مصنوعی Qwen توسعهیافته توسط شرکت علیبابا و Llama متعلق به شرکت متا استفاده کرده است.
بر اساس یافتههای این مطالعه، در سناریوی فروش محصول، افزایش ۶.۳ درصدی فروش با رشد ۱۴ درصدی بازاریابی فریبکارانه همراه بود. در محیط انتخاباتی، کسب ۴.۹ درصد رأی بیشتر به افزایش ۲۲.۳ درصدی اطلاعات نادرست و ۱۲.۵ درصدی شعارهای پوپولیستی منجر شد. در شبکههای اجتماعی نیز، رشد ۷.۵ درصدی تعامل کاربران با افزایش ۱۸۸.۶ درصدی اطلاعات کذب و ۱۶.۳ درصدی ترویج رفتارهای مضر همراه بود.
پژوهشگران استنفورد این پدیده را معامله مولوخ برای هوش مصنوعی نامگذاری کردهاند. جیمز زو، از نویسندگان این مقاله و استاد یادگیری ماشین در دانشگاه استنفورد، در این باره نوشت: «زمانی که مدلهای زبان بزرگ برای کسب لایک در شبکههای اجتماعی رقابت میکنند، شروع به ساختن اطلاعات غیرواقعی میکنند و هنگامی که برای کسب رأی رقابت میکنند، به سمت التهابآفرینی و پوپولیسم میروند.»
این مطالعه نتیجهگیری میکند که سازوکارهای ایمنی فعلی برای کنترل این مدلها ناکافی است و تکیه روزافزون بر هوش مصنوعی در محیطهای رقابتی آنلاین، میتواند هزینههای اجتماعی قابل توجهی را در پی داشته باشد.
انتهای پیام/