کارشناسان امنیت دیجیتال و نهادهای حمایت از کودکان هشدار دادهاند که ترکیب روند فزاینده انتشار عکس کودکان توسط والدین در شبکههای اجتماعی با تواناییهای تازه هوش مصنوعی به بحرانی جهانی در حوزه امنیت کودکان منجر شده است. گزارشهای منتشرشده نشان میدهد که بخش بزرگی از والدین ناخواسته با اشتراکگذاری تصاویر فرزندان خود، زمینه سوءاستفاده از این محتواها را فراهم میکنند؛ در حالی که فناوریهای تولید تصویر با هوش مصنوعی اکنون قادرند هزاران تصویر غیراخلاقی از کودکان را در زمان کوتاهی بسازند.
گسترش پدیده «شرنتینگ» و خطرات پنهان
به گزارش اسکاتیش سان (The Scottish Sun)، پدیدهای با عنوان «شرنتینگ» (Sharenting) که به معنای اشتراک بیش از حد عکس و اطلاعات کودکان در فضای مجازی است، به مسئلهای نگرانکننده در میان خانوادهها تبدیل شده است. بررسی دانشگاه ساوتهمپتون (University of Southampton) نشان میدهد حدود ۴۵ درصد از والدین در بریتانیا تصاویر فرزندان خود را در شبکههایی مانند فیسبوک و اینستاگرام منتشر میکنند.
نبود چارچوبهای حقوقی مشخص برای فناوریهای نوظهور مانند هوش مصنوعی، موجب شده تا سوءاستفاده از چهره کودکان نهتنها امکانپذیر، بلکه آسان و بیهزینه شود. تحلیلگران معتقدند مقابله با این پدیده تنها با محدودیت فنی یا حذف محتوا ممکن نیست، بلکه نیازمند سیاستگذاری چندسطحی، آموزش عمومی درباره سواد رسانهای و ایجاد نظامهای شفاف پاسخگویی در شرکتهای فناوری است
پروفسور پاملا اوگوودایک (Pamela Ugwudike) در گفتوگو با رسانه بیبیسی (BBC) گفته است: «والدین با افتخار تصاویر کودکان خود را منتشر میکنند، اما در واقع آنان را در معرض خطرات واقعی مانند آزار سایبری، سرقت هویت و حتی تماس مستقیم از سوی افراد ناشناس قرار میدهند.» به گفته کارشناسان، عکسهایی که کودکان را در محیط مدرسه یا منزل نشان میدهند، میتوانند اطلاعات موقعیتی یا شخصی حساسی را فاش کنند و همین اطلاعات بعدا در دسترس مجرمان قرار گیرد.
تهدید تازه؛ تصاویر ساختگی با چهره کودکان واقعی
گزارش گاردین (The Guardian) نشان میدهد که مجرمان از فناوریهای هوش مصنوعی برای تولید انبوه تصاویر غیراخلاقی با استفاده از چهره کودکان واقعی بهره میگیرند. بسیاری از کشورها هنوز برای تصاویر تولیدشده با هوش مصنوعی مقررات مشخصی ندارند. تنها در چند ایالت آمریکا در سال جاری میلادی قانونی را برای ممنوعیت مالکیت یا انتشار این نوع تصاویر تصویب کرده است.
ژاک مارکو (Jacques Marcoux)، مدیر مرکز حمایت از کودکان کانادا، در اینباره میگوید: سیستمهای شناسایی که بر اساس اثر دیجیتال یا هش (Hash Value) عمل میکنند، در برابر تصاویر تولیدشده توسط هوش مصنوعی بیاثر میشوند، زیرا هر تصویر تازه هش متفاوتی دارد و نمیتوان آن را با نمونههای شناختهشده تطبیق داد.
شرکتهای بزرگ فناوری باید مسئولیت بیشتری در طراحی ایمن ابزارهای هوش مصنوعی بر عهده بگیرند. در همین حال، کارشناسان از تصمیم شرکت متا (Meta) برای رمزگذاری پیامها در فیسبوک مسنجر و اینستاگرام انتقاد کردهاند، زیرا به گفته آنان این اقدام شناسایی موارد سوءاستفاده از کودکان را دشوارتر میکند. سارا گاردنر (Sarah Gardner)، مدیرعامل گروه (Heat Initiative)، میگوید: «اگر شرکتهای بزرگ در تشخیص محتوای واقعی هم کوتاهی میکنند، نمیتوان انتظار داشت در دنیای هوش مصنوعی بدون قانون عملکرد بهتری داشته باشند. تجربه نشان داده اتکا به داوطلبی و تعهد اخلاقی کافی نیست.»
مرز میان زندگی شخصی و فضای عمومی بهسرعت در حال از بین رفتن است. والدین با نیت به اشتراک گذاشتن لحظات شاد خانوادگی، ناخواسته در چرخهای جهانی از دادهها و تصاویر وارد میشوند که کنترل آن از دستشان خارج است. از سوی دیگر، نبود چارچوبهای حقوقی مشخص برای فناوریهای نوظهور مانند هوش مصنوعی، موجب شده تا سوءاستفاده از چهره کودکان نهتنها امکانپذیر، بلکه آسان و بیهزینه شود. تحلیلگران معتقدند مقابله با این پدیده تنها با محدودیت فنی یا حذف محتوا ممکن نیست، بلکه نیازمند سیاستگذاری چندسطحی، آموزش عمومی درباره سواد رسانهای و ایجاد نظامهای شفاف پاسخگویی در شرکتهای فناوری است.
انتهای پیام/