شناسهٔ خبر: 70092152 - سرویس اجتماعی
نسخه قابل چاپ منبع: دانشجو | لینک خبر

محققان استفاده نوجوانان از هوش مصنوعی مولد و نگرانی‌های ایمنی را بررسی می‌کنند

نوجوانان از هوش مصنوعی مولد برای اهداف بسیاری از جمله حمایت عاطفی و تعاملات اجتماعی استفاده می‌کنند. مطالعه‌ای که توسط محققان دانشگاه ایلینویز Urbana-Champaign انجام شد، نشان داد که والدین درک کمی از GAI، نحوه استفاده فرزندانشان از آن و خطرات احتمالی آن دارند و پلتفرم‌های GAI حفاظت کافی برای اطمینان از ایمنی کودکان ارائه نمی‌دهند.

صاحب‌خبر -

به گزارش گروه دانشگاه خبرگزاری دانشجو، نوجوانان از هوش مصنوعی مولد برای اهداف بسیاری از جمله حمایت عاطفی و تعاملات اجتماعی استفاده می‌کنند. مطالعه‌ای که توسط محققان دانشگاه ایلینویز Urbana-Champaign انجام شد، نشان داد که والدین درک کمی از GAI، نحوه استفاده فرزندانشان از آن و خطرات احتمالی آن دارند و پلتفرم‌های GAI حفاظت کافی برای اطمینان از ایمنی کودکان ارائه نمی‌دهند.


مقاله تحقیقاتی استاد علوم اطلاعات یانگ وانگ، مدیر آزمایشگاه سیستم‌های محاسبات اجتماعی و یامان یو، دانشجوی دکتری، یکی از اولین منابع داده‌های منتشر شده در مورد کاربرد‌ها و خطرات GAI برای کودکان است. وانگ و یو یافته‌های خود را در ماه می ۲۰۲۵ در سمپوزیوم IEEE در مورد امنیت و حریم خصوصی ارائه خواهند کرد. مقاله بر روی سرور preprint arXiv منتشر شده است.


وانگ و یو گفتند: نوجوانان اغلب از پلتفرم‌های GAI استفاده می‌کنند، اما اطلاعات کمی در مورد نحوه استفاده از آنها وجود دارد، و درک آنها از خطرات آن و نحوه مقابله آنها قبلاً توسط محققان مورد بررسی قرار نگرفته است.


محققان محتوای ۷۱۲ پست و ۸۵۳۳ نظر در Reddit را که مربوط به استفاده نوجوانان از GAI بود، تجزیه و تحلیل کردند. آنها همچنین با هفت نوجوان و ۱۳ والدین مصاحبه کردند تا درک آنها از ایمنی و چگونگی تلاش والدین برای کاهش خطر را درک کنند.


آنها دریافتند که نوجوانان اغلب از چت ربات‌های GAI به عنوان دستیار درمانی یا محرم برای ارائه حمایت عاطفی بدون قضاوت و کمک به آنها برای مقابله با چالش‌های اجتماعی استفاده می‌کنند. چت ربات‌های هوش مصنوعی در پلتفرم‌های رسانه‌های اجتماعی مانند اسنپ‌چت و اینستاگرام تعبیه شده‌اند و نوجوانان آنها را در چت‌های گروهی قرار می‌دهند، از آنها برای یادگیری مهارت‌های اجتماعی استفاده می‌کنند و گاهی با آنها به عنوان شریک عاشقانه رفتار می‌کنند.


آنها از GAI برای اهداف آکادمیک مانند مقاله نویسی، بازنویسی متن و تولید ایده استفاده می‌کنند. نوجوانان همچنین در Reddit پست‌هایی در مورد درخواست محتوای جنسی یا خشونت آمیز و قلدری به چت ربات‌های هوش مصنوعی ارسال کردند.


یو با اشاره به پلتفرمی برای ایجاد و تعامل با چت ربات‌های مبتنی بر کاراکتر گفت: این موضوع بسیار داغ است، با بسیاری از نوجوانان درباره هوش مصنوعی شخصیت و نحوه استفاده از آن صحبت می‌کنند.


وانگ و یو گزارش دادند که والدین و فرزندان هم تصورات غلط قابل توجهی در مورد هوش مصنوعی مولد داشتند. والدین درک کمی از استفاده فرزندانشان از GAI داشتند و مواجهه آنها با این ابزار‌ها محدود بود. آنها از استفاده فرزندانشان از ابزار‌هایی مانند Midjourney و DALL-E برای تولید تصویر و Character AI بی اطلاع بودند. به گفته محققان، آنها هوش مصنوعی را ابزاری برای انجام تکالیف و عملکردی مانند یک موتور جستجو می‌دانستند، در حالی که کودکان عمدتاً به دلایل شخصی و اجتماعی از آن استفاده می‌کردند.


نوجوانان نگرانی‌های خود را شامل وابستگی یا اعتیاد بیش از حد به چت بات‌ها برای پر کردن خلاء در ارتباطات شخصی، استفاده از چت بات‌ها برای ایجاد محتوای آزاردهنده، استفاده غیرمجاز از اطلاعات شخصی خود و انتشار محتوای مضر مانند اظهارات نژادپرستانه گزارش کردند. آنها همچنین نگران هوش مصنوعی جایگزین نیروی انسانی و نقض مالکیت معنوی بودند.


والدین دریافتند که پلتفرم‌های هوش مصنوعی داده‌های گسترده‌ای مانند جمعیت‌شناسی کاربر، تاریخچه مکالمه و تاریخچه مرورگر را جمع‌آوری می‌کنند و نگران اشتراک‌گذاری اطلاعات شخصی یا خانوادگی کودکان از سوی کودکان بودند.


محققان نوشتند، با این حال، والدین "به طور کامل از میزان اطلاعات حساسی که فرزندانشان ممکن است با GAI به اشتراک بگذارند از جمله جزئیات آسیب‌های شخصی، سوابق پزشکی و جنبه‌های خصوصی زندگی اجتماعی و جنسی خود را درک نکردند. " والدین همچنین نگران این بودند که کودکان به طور ناخواسته اطلاعات نادرست را منتشر کنند و نگران بودند که اتکای بیش از حد به هوش مصنوعی باعث شود فرزندانشان از تفکر انتقادی اجتناب کنند.


والدین گفتند که هوش مصنوعی مخصوص کودکان را می‌خواهند که فقط با محتوای مناسب سن یا سیستمی با ویژگی‌های تعبیه شده برای کنترل سن و موضوع آموزش داده شود. به گفته محققان، کودکان گفتند که والدین آنها در مورد استفاده خاص از GAI به آنها توصیه نمی‌کنند و آنها می‌خواهند والدین درباره استفاده اخلاقی از آن به جای محدود کردن آن صحبت کنند.


پلتفرم‌های GAI حفاظت محدودی از کودکان ارائه می‌کنند، بر محدود کردن محتوای صریح تمرکز می‌کنند و ویژگی‌های کنترل والدین را متناسب با هوش مصنوعی ارائه نمی‌دهند. وانگ و یو گفتند که هم خطرات برای کودکان و هم راهبرد‌های کاهش آنها پیچیده‌تر و ظریف‌تر از مسدود کردن محتوای نامناسب است. آنها گفتند که یکی از چالش‌های کلیدی برای شناسایی و جلوگیری از محتوای نامناسب در پلتفرم‌های GAI، ماهیت پویای آن در تولید محتوای منحصر به فرد در زمان واقعی در مقایسه با محتوای آنلاین ثابت است.


محققان گفتند: بسیار مهم است که پلتفرم‌ها توضیحات شفافی در مورد خطرات امنیتی و حریم خصوصی خود که توسط کارشناسان شناسایی شده است ارائه دهند و توصیه می‌کنند فیلتر‌های محتوایی را ارائه دهند که می‌تواند متناسب با نیاز‌های خانواده‌ها و مراحل رشد فرزندانشان باشد.


با این حال، استراتژی‌های ایمنی نمی‌توانند صرفاً فنی باشند و باید از فیلتر کردن و محدودیت‌ها فراتر بروند و تنش بین استقلال کودکان و کنترل والدین بر مدیریت خطرات آنلاین را تشخیص دهند. وانگ و یو گفتند که بزرگسالان ابتدا باید انگیزه‌های رفتار‌های کودکان در GAI را درک کنند. آنها یک ربات چت پشتیبانی پیشنهاد کردند که می‌تواند محیطی امن برای توضیح خطرات احتمالی، افزایش انعطاف پذیری و ارائه استراتژی‌های مقابله‌ای به کاربران نوجوان ارائه دهد.


وانگ گفت: فناوری‌های هوش مصنوعی و روش‌هایی که مردم از آنها استفاده می‌کنند بسیار سریع در حال تکامل هستند. چیز‌هایی وجود دارد که می‌توانیم از حوزه‌های گذشته مانند اعتیاد و رفتار نامناسب در رسانه‌های اجتماعی و بازی‌های آنلاین بیاموزیم.


وانگ گفت تحقیقات آنها اولین گام برای رسیدگی به این مشکل است. او و یو در حال ایجاد طبقه‌بندی از دسته‌های خطر هستند که می‌توان از آن برای گفتگو در مورد خطرات و مداخلات برای کمک به کاهش آنها استفاده کرد.


وانگ گفت، همچنین به شناسایی سیگنال‌های اولیه رفتار مخاطره‌آمیز کمک می‌کند که شامل مدت زمان صرف شده در یک پلتفرم GAI، محتوای مکالمات و الگو‌های استفاده، مانند زمانی از روز است که کودکان از این پلت‌فرم‌ها استفاده می‌کنند.


او و یو با پروفسور روانشناسی ایلینوی کارن رودولف، مدیر آزمایشگاه مطالعات خانواده که تحقیقاتش بر رشد نوجوانان متمرکز است، برای ایجاد مداخلات متناسب با سن کار می‌کنند.


یو گفت: این یک موضوع بسیار بین رشته‌ای است و ما در تلاش هستیم تا آن را به روش‌های بین رشته‌ای شامل آموزش، روانشناسی و دانش ما در مورد ایمنی و مدیریت ریسک حل کنیم. این باید یک راه حل فنی و تعامل اجتماعی باشد.