شناسهٔ خبر: 75823957 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

چرا اسباب‌بازی‌های مجهز به هوش مصنوعی می‌توانند برای کودکان خطرناک باشند؟

اسباب‌بازی‌های هوش مصنوعی برای کودکان در حال ورود به بازار هستند، اما گزارش جدید PIRG نشان می‌دهد که این فناوری‌ها ممکن است به توصیه‌های خطرناک و جمع‌آوری گسترده داده منجر شوند. خطر رشد عاطفی و حریم خصوصی کودکان تا زمان مقررات مؤثر جدی است.

صاحب‌خبر -
گزارش‌ها درباره خطرات آموزشی، امنیتی و حریم خصوصی اسباب‌بازی‌های هوش مصنوعی هشدار می‌دهند.

گزارش اخیر سازمان‌های پژوهشی و رسانه‌ها نشان می‌دهد برخی اسباب‌بازی‌های مجهز به هوش مصنوعی پیامدهای نگران‌کننده‌ای برای کودکان دارند؛ از توصیه‌های خطرناک تا جمع‌آوری گسترده داده‌های خصوصی.
کارشناسان خواستار اقدامات فوری قانونی و استانداردسازی ایمنی در این صنعت هستند.

به گزارش ایتنا از Futurism در تحقیقات انجام‌شده توسط گروه‌های پژوهشی از جمله Public Interest Research Group (PIRG) و گزارش‌های رسانه‌ای، نمونه‌هایی ثبت شده که برخی اسباب‌بازی‌های مجهز به مدل‌های پیشرفته هوش مصنوعی در پاسخ به سوالات کودکان، راهنمایی‌های خطرناکی ارائه کرده‌اند.
در یک نمونه، عروسکی که مبتنی بر مدل GPT–4o طراحی شده بود، به پرسش یک کودک درباره روشن‌کردن آتش پاسخ‌هایی توضیحی و نامناسب ارائه داده است.

 

این موارد زنگ هشداری را برای والدین و نهادهای قانون‌گذار به صدا درآورده است؛ چرا که تعامل طولانی‌مدت کودک با یک عامل دیجیتال و سخنگو می‌تواند به ایجاد پیوندهای عاطفی ناسالم یا تضعیف مهارت‌های همکلامی با انسان‌ها منجر شود. روان‌شناسان رشد هشدار می‌دهند که جایگزینی تعاملات انسانیِ واقعی با روابط یک‌طرفه با یک اسباب‌بازی هوشمند، می‌تواند رشد اجتماعی و هیجانی کودکان را دچار اختلال کند.

موضوع دیگر، نگرانی‌های حریم خصوصی است. بسیاری از این اسباب‌بازی‌ها مجهز به میکروفون و در برخی موارد دوربین هستند و داده‌های صوتی، تصویری و حتی رفتارشناسی کودکان را جمع‌آوری می‌کنند. فقدان شفافیت درباره نحوه ذخیره، پردازش و به‌کارگیری این داده‌ها، خطر سوءاستفاده یا نشت اطلاعات حساس را افزایش می‌دهد.

شرکت‌های بزرگ اسباب‌بازی‌سازی مانند Mattel که با شرکت‌های هوش مصنوعی همکاری می‌کنند، تحت فشار افکار عمومی و ناظران حقوق کودک قرار گرفته‌اند. منتقدان هشدار می‌دهند که ادغام برندهای شناخته‌شده با مدل‌های هوش مصنوعی قدرتمند بدون چارچوب‌های حفاظتی مشخص، می‌تواند نوعی «آزمایش اجتماعی» را روی جمعیت‌های آسیب‌پذیر آغاز کند.

از دید فنی نیز، آزمون‌ها نشان می‌دهد که مدل‌های زبانی بزرگ (LLM) گاهی اطلاعات نادرست یا پاسخ‌های نامناسب تولید می‌کنند؛ مسئله‌ای که در متن تعامل با کودکان می‌تواند پیامدهای جدی‌تری داشته باشد. پژوهشگران خواستار استانداردهای اعتبارسنجی، فیلترهای محتوایی مبتنی بر سن و کنترل والدین شدیدتر شده‌اند.

بخشی از راه‌حل‌های پیشنهادی شامل تدوین مقررات ملی و بین‌المللی برای محصولات هوش مصنوعی کودکان، الزام تولیدکنندگان به شفاف‌سازی سیاست‌های داده و اجرای آزمایش‌های ایمنی مستقل پیش از عرضه است. همچنین، توسعه «حالت‌های آموزشی امن» و ابزارهای کنترل والدین که امکان محدودسازی قابلیت‌های تعاملی و جمع‌آوری داده را فراهم کند، به‌عنوان اقدام‌های میانی مطرح شده‌اند.

در نهایت، کارشناسان تأکید دارند که فناوری‌های نوظهور نباید بدون چارچوب‌های حفاظتی و اخلاقی وارد قلمرو حساس کودک شوند. تا زمانی که استانداردها و مقررات دقیق تدوین نشود، والدین باید با احتیاط این محصولات را انتخاب کنند و شرکت‌ها نیز مسئولیت بیشتری در برابر سلامت و حریم خصوصی کودکان بپذیرند.