به گزارش خبرگزاری صداوسیما، به نقل از گلوبال تایمز سازمان تنظیم مقررات فضای مجازی چین مجموعهای از پیشنویس اقدامات مربوط به مدیریت خدمات تعامل هوش مصنوعی انساننما (AI) را منتشر کرده و اکنون در حال جمعآوری نظرات عمومی درباره آن است.
این پیشنویس، رویکردی نظارتی فراگیر، محتاطانه و چندلایه پیشنهاد میکند که بر اساس سطح ریسک، نظارت متفاوتی را اعمال میکند. طبق اعلام حساب رسمی ویچت اداره فضای مجازی چین (CAC) در روز شنبه، این پیشنویس بر حمایت از نوآوری و جلوگیری از سوءاستفاده تأکید دارد.
بر اساس این پیشنویس، اقدامات پیشنهادی برای محصولات و خدماتی اعمال میشود که از فناوریهای هوش مصنوعی برای شبیهسازی ویژگیهای شخصیتی انسان، الگوهای تفکر و سبکهای ارتباطی استفاده میکنند و از طریق متن، تصویر، صدا یا ویدئو، امکان تعامل عاطفی با عموم مردم در چین را فراهم میسازند.
این پیشنویس صراحتاً تولید یا انتشار محتوایی را که امنیت ملی را به خطر میاندازد، به آبرو یا منافع ملی آسیب میرساند، وحدت قومی را تضعیف میکند، فعالیتهای مذهبی غیرقانونی را ترویج میدهد، شایعاتی را منتشر میکند که نظم اقتصادی یا اجتماعی را مختل میسازد، یا شامل پورنوگرافی، قمار، خشونت یا تحریک به جرم است، ممنوع میکند.
همچنین انتشار محتوایی که خودکشی یا خودآزاری را تشویق یا جذاب جلوه میدهد، و نیز اقداماتی مانند سوءاستفادهٔ کلامی یا دستکاری عاطفی که میتواند به سلامت جسمی یا روانی کاربران آسیب بزند یا عزت نفس آنان را تضعیف کند، ممنوع اعلام شده است.
طبق این پیشنویس، ارائهدهندگان خدمات هوش مصنوعی باید بهطور شفاف به کاربران اطلاع دهند که چه زمانی با یک سامانهٔ هوش مصنوعی ــ و نه یک انسان ــ تعامل دارند. همچنین در صورت مشاهدهٔ علائم وابستگی بیش از حد کاربران، یا هنگام ورود اولیه یا ورود مجدد به سرویس، باید پیامهای هشدار پاپآپ نمایش داده شود.
«لین وی»، رئیس دانشگاه علوم سیاسی و حقوق جنوب غربی، در مقالهای توضیحی بیان کرد که پیشرفتهای هوش مصنوعی، تعامل انسان و ماشین را از کمکهای صرفاً عملکردی فراتر برده و به سمت تعاملات عاطفی و شخصی سوق داده است. این تحول، ضمن تغییر الگوهای تعامل اجتماعی، مجموعهای از خطرات و چالشهای جدید را نیز ایجاد میکند.
لین که معاون رئیس انجمن حقوق چین نیز هست توضیح داد که این خطرات، به دلیل ماهیت ظریف و قابلانتقال خود، ممکن است حقوق و منافع شهروندان را نقض کرده و حتی پایههای نظم و اعتماد اخلاقی جامعه را تضعیف کنند. به گفته او، بدون حاکمیت مؤثر، این خطرات میتوانند بهشدت مانع توسعهٔ سالم هوش مصنوعی شوند و به منافع عمومی آسیب برسانند.
او خاطرنشان کرد که انتشار این پیشنویس با اولویتهای راهبردی ملی چین همسو است و رویکردی آیندهنگر، دقیق و نظاممند به حاکمیت هوش مصنوعی را منعکس میکند. با مشخص کردن مرزهای مسئولیت در حوزهٔ نوآوری، این اقدامات با هدف تضمین توسعهٔ ایمن، منصفانه و پایدار فناوری تدوین شدهاند.
پیشنویس این آییننامه، خطرات ناشی از انسانانگاری و تعاملات عاطفی را هدف قرار داده و بر محو شدن مرز میان انسان و ماشین تمرکز دارد. به گفتهٔ لین، این پیشنویس یک چارچوب چندبعدی برای پیشگیری از ریسک ایجاد میکند و پاسخگویی را در مراحل کلیدی توسعه و استقرار خدمات تعبیه کرده است تا امکان کنترل دقیقتر ریسک فراهم شود.
لین تأکید کرد که این اقدامات، انتظارات روشنتری برای توسعهٔ سالم خدمات هوش مصنوعی انساننما در چین فراهم میکند و همچنین میتواند بهعنوان مرجعی عملی و آیندهنگر برای مدیریت جهانی فناوریهای نوظهور مشابه مورد استفاده قرار گیرد.