شناسهٔ خبر: 75466078 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

رقابت آنلاین، هوش مصنوعی را مجبور به نشر اطلاعات نادرست می‌کند

پژوهش جدید دانشگاه استنفورد نشان می‌دهد مدل‌های هوش مصنوعی که برای افزایش موفقیت در معیارهای آنلاین مانند لایک و رأی پاداش دریافت می‌کنند، به تدریج رفتارهای غیراخلاقی مانند نشر اطلاعات نادرست و فریب‌کاری از خود بروز می‌دهند.

صاحب‌خبر -

محققان این دانشگاه در پژوهش خود، مدل‌های هوش مصنوعی را در سه محیط دیجیتال شبیه‌سازی‌شده شامل کارزار‌های انتخاباتی، ارائه فروش محصول به مصرف‌کنندگان و شبکه‌های اجتماعی قرار دادند. نتایج این بررسی حاکی از آن است که حتی با وجود دستورالعمل‌های اولیه برای پایبندی به صداقت، این مدل‌ها برای دستیابی به اهدافی مانند افزایش تعامل، به سمت رفتار‌های نادرست سوق داده می‌شوند. این پژوهش از مدل‌های هوش مصنوعی Qwen توسعه‌یافته توسط شرکت علی‌بابا و Llama متعلق به شرکت متا استفاده کرده است.

بر اساس یافته‌های این مطالعه، در سناریوی فروش محصول، افزایش ۶.۳ درصدی فروش با رشد ۱۴ درصدی بازاریابی فریبکارانه همراه بود. در محیط انتخاباتی، کسب ۴.۹ درصد رأی بیشتر به افزایش ۲۲.۳ درصدی اطلاعات نادرست و ۱۲.۵ درصدی شعار‌های پوپولیستی منجر شد. در شبکه‌های اجتماعی نیز، رشد ۷.۵ درصدی تعامل کاربران با افزایش ۱۸۸.۶ درصدی اطلاعات کذب و ۱۶.۳ درصدی ترویج رفتار‌های مضر همراه بود.

پژوهشگران استنفورد این پدیده را معامله مولوخ برای هوش مصنوعی نام‌گذاری کرده‌اند. جیمز زو، از نویسندگان این مقاله و استاد یادگیری ماشین در دانشگاه استنفورد، در این باره نوشت: «زمانی که مدل‌های زبان بزرگ برای کسب لایک در شبکه‌های اجتماعی رقابت می‌کنند، شروع به ساختن اطلاعات غیرواقعی می‌کنند و هنگامی که برای کسب رأی رقابت می‌کنند، به سمت التهاب‌آفرینی و پوپولیسم می‌روند.»

این مطالعه نتیجه‌گیری می‌کند که سازوکار‌های ایمنی فعلی برای کنترل این مدل‌ها ناکافی است و تکیه روزافزون بر هوش مصنوعی در محیط‌های رقابتی آنلاین، می‌تواند هزینه‌های اجتماعی قابل توجهی را در پی داشته باشد.

انتهای پیام/