به گزارش گروه دانشگاه خبرگزاری دانشجو، نوجوانان از هوش مصنوعی مولد برای اهداف بسیاری از جمله حمایت عاطفی و تعاملات اجتماعی استفاده میکنند. مطالعهای که توسط محققان دانشگاه ایلینویز Urbana-Champaign انجام شد، نشان داد که والدین درک کمی از GAI، نحوه استفاده فرزندانشان از آن و خطرات احتمالی آن دارند و پلتفرمهای GAI حفاظت کافی برای اطمینان از ایمنی کودکان ارائه نمیدهند.
مقاله تحقیقاتی استاد علوم اطلاعات یانگ وانگ، مدیر آزمایشگاه سیستمهای محاسبات اجتماعی و یامان یو، دانشجوی دکتری، یکی از اولین منابع دادههای منتشر شده در مورد کاربردها و خطرات GAI برای کودکان است. وانگ و یو یافتههای خود را در ماه می ۲۰۲۵ در سمپوزیوم IEEE در مورد امنیت و حریم خصوصی ارائه خواهند کرد. مقاله بر روی سرور preprint arXiv منتشر شده است.
وانگ و یو گفتند: نوجوانان اغلب از پلتفرمهای GAI استفاده میکنند، اما اطلاعات کمی در مورد نحوه استفاده از آنها وجود دارد، و درک آنها از خطرات آن و نحوه مقابله آنها قبلاً توسط محققان مورد بررسی قرار نگرفته است.
محققان محتوای ۷۱۲ پست و ۸۵۳۳ نظر در Reddit را که مربوط به استفاده نوجوانان از GAI بود، تجزیه و تحلیل کردند. آنها همچنین با هفت نوجوان و ۱۳ والدین مصاحبه کردند تا درک آنها از ایمنی و چگونگی تلاش والدین برای کاهش خطر را درک کنند.
آنها دریافتند که نوجوانان اغلب از چت رباتهای GAI به عنوان دستیار درمانی یا محرم برای ارائه حمایت عاطفی بدون قضاوت و کمک به آنها برای مقابله با چالشهای اجتماعی استفاده میکنند. چت رباتهای هوش مصنوعی در پلتفرمهای رسانههای اجتماعی مانند اسنپچت و اینستاگرام تعبیه شدهاند و نوجوانان آنها را در چتهای گروهی قرار میدهند، از آنها برای یادگیری مهارتهای اجتماعی استفاده میکنند و گاهی با آنها به عنوان شریک عاشقانه رفتار میکنند.
آنها از GAI برای اهداف آکادمیک مانند مقاله نویسی، بازنویسی متن و تولید ایده استفاده میکنند. نوجوانان همچنین در Reddit پستهایی در مورد درخواست محتوای جنسی یا خشونت آمیز و قلدری به چت رباتهای هوش مصنوعی ارسال کردند.
یو با اشاره به پلتفرمی برای ایجاد و تعامل با چت رباتهای مبتنی بر کاراکتر گفت: این موضوع بسیار داغ است، با بسیاری از نوجوانان درباره هوش مصنوعی شخصیت و نحوه استفاده از آن صحبت میکنند.
وانگ و یو گزارش دادند که والدین و فرزندان هم تصورات غلط قابل توجهی در مورد هوش مصنوعی مولد داشتند. والدین درک کمی از استفاده فرزندانشان از GAI داشتند و مواجهه آنها با این ابزارها محدود بود. آنها از استفاده فرزندانشان از ابزارهایی مانند Midjourney و DALL-E برای تولید تصویر و Character AI بی اطلاع بودند. به گفته محققان، آنها هوش مصنوعی را ابزاری برای انجام تکالیف و عملکردی مانند یک موتور جستجو میدانستند، در حالی که کودکان عمدتاً به دلایل شخصی و اجتماعی از آن استفاده میکردند.
نوجوانان نگرانیهای خود را شامل وابستگی یا اعتیاد بیش از حد به چت باتها برای پر کردن خلاء در ارتباطات شخصی، استفاده از چت باتها برای ایجاد محتوای آزاردهنده، استفاده غیرمجاز از اطلاعات شخصی خود و انتشار محتوای مضر مانند اظهارات نژادپرستانه گزارش کردند. آنها همچنین نگران هوش مصنوعی جایگزین نیروی انسانی و نقض مالکیت معنوی بودند.
والدین دریافتند که پلتفرمهای هوش مصنوعی دادههای گستردهای مانند جمعیتشناسی کاربر، تاریخچه مکالمه و تاریخچه مرورگر را جمعآوری میکنند و نگران اشتراکگذاری اطلاعات شخصی یا خانوادگی کودکان از سوی کودکان بودند.
محققان نوشتند، با این حال، والدین "به طور کامل از میزان اطلاعات حساسی که فرزندانشان ممکن است با GAI به اشتراک بگذارند از جمله جزئیات آسیبهای شخصی، سوابق پزشکی و جنبههای خصوصی زندگی اجتماعی و جنسی خود را درک نکردند. " والدین همچنین نگران این بودند که کودکان به طور ناخواسته اطلاعات نادرست را منتشر کنند و نگران بودند که اتکای بیش از حد به هوش مصنوعی باعث شود فرزندانشان از تفکر انتقادی اجتناب کنند.
والدین گفتند که هوش مصنوعی مخصوص کودکان را میخواهند که فقط با محتوای مناسب سن یا سیستمی با ویژگیهای تعبیه شده برای کنترل سن و موضوع آموزش داده شود. به گفته محققان، کودکان گفتند که والدین آنها در مورد استفاده خاص از GAI به آنها توصیه نمیکنند و آنها میخواهند والدین درباره استفاده اخلاقی از آن به جای محدود کردن آن صحبت کنند.
پلتفرمهای GAI حفاظت محدودی از کودکان ارائه میکنند، بر محدود کردن محتوای صریح تمرکز میکنند و ویژگیهای کنترل والدین را متناسب با هوش مصنوعی ارائه نمیدهند. وانگ و یو گفتند که هم خطرات برای کودکان و هم راهبردهای کاهش آنها پیچیدهتر و ظریفتر از مسدود کردن محتوای نامناسب است. آنها گفتند که یکی از چالشهای کلیدی برای شناسایی و جلوگیری از محتوای نامناسب در پلتفرمهای GAI، ماهیت پویای آن در تولید محتوای منحصر به فرد در زمان واقعی در مقایسه با محتوای آنلاین ثابت است.
محققان گفتند: بسیار مهم است که پلتفرمها توضیحات شفافی در مورد خطرات امنیتی و حریم خصوصی خود که توسط کارشناسان شناسایی شده است ارائه دهند و توصیه میکنند فیلترهای محتوایی را ارائه دهند که میتواند متناسب با نیازهای خانوادهها و مراحل رشد فرزندانشان باشد.
با این حال، استراتژیهای ایمنی نمیتوانند صرفاً فنی باشند و باید از فیلتر کردن و محدودیتها فراتر بروند و تنش بین استقلال کودکان و کنترل والدین بر مدیریت خطرات آنلاین را تشخیص دهند. وانگ و یو گفتند که بزرگسالان ابتدا باید انگیزههای رفتارهای کودکان در GAI را درک کنند. آنها یک ربات چت پشتیبانی پیشنهاد کردند که میتواند محیطی امن برای توضیح خطرات احتمالی، افزایش انعطاف پذیری و ارائه استراتژیهای مقابلهای به کاربران نوجوان ارائه دهد.
وانگ گفت: فناوریهای هوش مصنوعی و روشهایی که مردم از آنها استفاده میکنند بسیار سریع در حال تکامل هستند. چیزهایی وجود دارد که میتوانیم از حوزههای گذشته مانند اعتیاد و رفتار نامناسب در رسانههای اجتماعی و بازیهای آنلاین بیاموزیم.
وانگ گفت تحقیقات آنها اولین گام برای رسیدگی به این مشکل است. او و یو در حال ایجاد طبقهبندی از دستههای خطر هستند که میتوان از آن برای گفتگو در مورد خطرات و مداخلات برای کمک به کاهش آنها استفاده کرد.
وانگ گفت، همچنین به شناسایی سیگنالهای اولیه رفتار مخاطرهآمیز کمک میکند که شامل مدت زمان صرف شده در یک پلتفرم GAI، محتوای مکالمات و الگوهای استفاده، مانند زمانی از روز است که کودکان از این پلتفرمها استفاده میکنند.
او و یو با پروفسور روانشناسی ایلینوی کارن رودولف، مدیر آزمایشگاه مطالعات خانواده که تحقیقاتش بر رشد نوجوانان متمرکز است، برای ایجاد مداخلات متناسب با سن کار میکنند.
یو گفت: این یک موضوع بسیار بین رشتهای است و ما در تلاش هستیم تا آن را به روشهای بین رشتهای شامل آموزش، روانشناسی و دانش ما در مورد ایمنی و مدیریت ریسک حل کنیم. این باید یک راه حل فنی و تعامل اجتماعی باشد.