شناسهٔ خبر: 66787501 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایسکانیوز | لینک خبر

هشدار دانشمندان برجسته هوش مصنوعی برای خطرات فراتر از کنترل انسان

دانشمندان برجسته هوش مصنوعی فراخوانی را برای اقدام فوری رهبران جهانی صادر و از عدم پیشرفت از آخرین اجلاس ایمنی هوش مصنوعی انتقاد کردند.

صاحب‌خبر -

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ دانشمندان بزرگ هوش مصنوعی سیاست‌های سختگیرانه‌ای را برای حاکمیت بر توسعه هوش مصنوعی و جلوگیری از سوء‌استفاده از آن پیشنهاد و بر پتانسیل فراتر رفتن هوش مصنوعی از توانایی‌های انسانی و ایجاد خطرات جدی تأکید کردند.

کارشناسان هوش مصنوعی نسبت به اقدامات ناکافی جهانی در مورد خطرات هوش مصنوعی هشدار می‌دهند و از حاکمیت سختگیرانه برای جلوگیری از فجایع احتمالی حمایت می‌کنند. آنها از رهبران جهان می‌خواهند تا اقدامات قاطع‌تری در مورد خطرات هوش مصنوعی انجام دهند و تأکید می‌کنند که پیشرفت‌های حاصل از اولین نشست ایمنی هوش مصنوعی در پارک بلچلی در ۶ ماه پیش ناکافی بوده است.

در آن اجلاس اولیه، رهبران جهانی متعهد شدند که هوش مصنوعی را مسئولانه مدیریت کنند. با این حال، با نزدیک شدن به دومین اجلاس ایمنی هوش مصنوعی در سئول (۲۱ تا ۲۲ ماه مه)، ۲۵ محقق برتر هوش مصنوعی ادعا می‌کنند که تلاش‌های فعلی برای محافظت در برابر خطرات ناشی از این فناوری ناکافی است. در نتیجه اقدامات سیاستی فوری را پیشنهاد می‌کنند که باید برای مقابله با تهدیدات ناشی از فناوری‌های هوش مصنوعی اجرا شوند.

پروفسور «فیلیپ تور»، گروه علوم مهندسی دانشگاه آکسفورد، می‌گوید: جهان در آخرین اجلاس هوش مصنوعی موافقت کرد که ما نیاز به اقدام داریم، اما اکنون زمان آن رسیده است که از پیشنهادات مبهم به تعهدات ملموس برویم.

دانشمندان در مقاله‌ای توصیه‌های مهم بسیاری را برای آنچه شرکت‌ها و دولت‌ها باید متعهد به انجام آن باشند ارائه دادند.

واکنش جهان در مواجهه با پیشرفت بالقوه سریع هوش مصنوعی درست نیست

به گفته نویسندگان مقاله، ضروری است که رهبران جهان این احتمال را جدی بگیرند که سیستم‌های هوش مصنوعی عمومی بسیار قدرتمند - که عملکرد بهتری از توانایی‌های انسانی در بسیاری از حوزه‌های حیاتی دارند - در دهه جاری یا دهه آینده توسعه خواهند یافت. آنها می‌گویند که اگرچه دولت‌ها در سراسر جهان در مورد هوش مصنوعی مرزی بحث کرده‌اند و تلاش‌هایی برای ارائه دستورالعمل‌های اولیه انجام داده‌اند، اما این به سادگی با امکان پیشرفت سریع و تحول‌آفرین مورد انتظار بسیاری از کارشناسان ناسازگار است.

تحقیقات فعلی در مورد ایمنی هوش مصنوعی به طور جدی وجود ندارد، به طوری که تنها یک تا سه درصد از انتشارات هوش مصنوعی در مورد ایمنی تخمین زده می‌شود. علاوه بر این، ما مکانیسم‌ها یا نهادهایی را برای جلوگیری از سوء استفاده و بی‌احتیاطی، از جمله در مورد استفاده از سیستم‌های مستقلی که قادر به انجام اقدامات مستقل و تعقیب اهداف هستند، نداریم.

فراخوان کارشناسان پیشرو در جهان هوش مصنوعی

با توجه به این موضوع، یک جامعه بین‌المللی از پیشگامان هوش مصنوعی فراخوانی فوری برای اقدام صادر کرده است. در مجموع ۲۵ نفر از کارشناسان برجسته دانشگاهی جهان در زمینه هوش مصنوعی و حکمرانی آن از چندین کشور آمریکا، چین، اتحادیه اروپا، بریتانیا و سایر قدرت‌های هوش مصنوعی و شامل برندگان جایزه تورینگ، برندگان جایزه نوبل و نویسندگان کتاب‌های درسی استاندارد هوش مصنوعی این فراخوان را اعلام کردند.

این مقاله برای اولین بار است که چنین گروه بزرگ و بین‌المللی از کارشناسان در مورد اولویت‌های سیاست گذاران جهانی در مورد خطرات ناشی از سیستم‌های پیشرفته هوش مصنوعی به توافق می‌رسند.

اولویت‌های فوری برای حکمرانی هوش مصنوعی

نویسندگان به دولت‌ها توصیه می‌کنند:

  • نهادهای متخصص و سریع برای نظارت بر هوش مصنوعی ایجاد کنید و بودجه بسیار بیشتری را نسبت به آنچه که تقریباً در هر طرح سیاستی فعلی دریافت می‌کنند، در اختیار آنها قرار دهید. به عنوان مقایسه، موسسه ایمنی هوش مصنوعی آمریکا در حال حاضر دارای بودجه سالانه ۱۰ میلیون دلاری است، در حالی که سازمان غذا و داروی ایالات متحده (FDA) بودجه ۶/۷ میلیارد دلاری دارد.
  • به جای تکیه بر ارزیابی‌های مدل داوطلبانه یا نامشخص، ارزیابی‌های ریسک بسیار دقیق‌تری را با پیامدهای قابل اجرا الزامی کنید.
  • از شرکت‌های هوش مصنوعی بخواهید که ایمنی را در اولویت قرار دهند و نشان دهند که سیستم‌های آنها نمی‌تواند آسیبی ایجاد کند. این شامل استفاده از موارد ایمنی (که برای سایر فناوری‌های حیاتی ایمنی مانند حمل و نقل هوایی کاربرد دارد) می‌شود که بار نشان دادن ایمنی را به توسعه‌دهندگان هوش مصنوعی منتقل می‌کند.
  • اجرای استانداردهای کاهش متناسب با سطوح خطر ناشی از سیستم‌های هوش مصنوعی. یک اولویت فوری، تنظیم سیاست‌هایی است که زمانی که هوش مصنوعی به نقاط عطف قابلیت‌های خاصی می‌رسد، به‌طور خودکار فعال شوند. اگر هوش مصنوعی به سرعت پیشرفت کند، الزامات سختگیرانه به طور خودکار اعمال می‌شود، اما اگر پیشرفت کند شود، الزامات مطابق با آن کاهش می‌یابد.

به گفته نویسندگان، برای سیستم‌های هوش مصنوعی آینده با توانایی استثنایی، دولت‌ها باید آماده باشند تا رهبری مقررات را بر عهده بگیرند. این شامل صدور مجوز توسعه این سیستم‌ها، محدود کردن استقلال آنها در نقش‌های کلیدی اجتماعی، توقف توسعه و استقرار آنها در پاسخ به قابلیت‌های نگران‌کننده، اجباری کردن کنترل‌های دسترسی، و نیاز به اقدامات امنیتی اطلاعات قوی برای هکرهای سطح دولتی، تا زمانی که حفاظت‌های کافی آماده شود، می‌شود.

تاثیرات هوش مصنوعی می‌تواند فاجعه بار باشد

هوش مصنوعی در حال حاضر در حال پیشرفت سریع در حوزه‌های حیاتی مانند هک، دستکاری اجتماعی و برنامه ریزی استراتژیک است و ممکن است به زودی چالش‌های کنترلی بی‌سابقه‌ای را ایجاد کند. برای پیشبرد اهداف نامطلوب، سیستم‌های هوش مصنوعی می‌توانند اعتماد انسانی را به دست آورند، منابع را به دست آورند و بر تصمیم‌گیرندگان کلیدی تأثیر بگذارند. برای جلوگیری از دخالت انسان، آنها می‌توانند الگوریتم‌های خود را در سراسر شبکه‌های سرور جهانی کپی کنند. جرایم سایبری در مقیاس بزرگ، دستکاری اجتماعی و سایر آسیب‌ها می‌توانند به سرعت تشدید شوند. در درگیری‌های باز، سیستم‌های هوش مصنوعی می‌توانند به طور مستقل انواع مختلفی از سلاح‌ها، از جمله سلاح‌های بیولوژیکی را به کار گیرند. در نتیجه، یک شانس بسیار واقعی وجود دارد که پیشرفت کنترل نشده هوش مصنوعی می‌تواند منجر به تلفات گسترده زندگی و زیست کره و به حاشیه راندن یا انقراض بشریت شود.

«استوارت راسل»، پروفسور علوم کامپیوتر در دانشگاه کالیفرنیا در برکلی و نویسنده کتاب استاندارد جهانی هوش مصنوعی، می‌گوید: این مقاله اجماع کارشناسان برجسته است و خواستار مقررات سختگیرانه توسط دولت‌ها است، نه کدهای داوطلبانه. رفتار نوشته شده توسط صنعت زمان آن رسیده است که در مورد سیستم‌های پیشرفته هوش مصنوعی جدی بگیرید. اینها اسباب‌بازی نیستند. افزایش قابلیت‌های آنها قبل از اینکه بفهمیم چگونه آنها را ایمن کنیم کاملاً بی‌پروا است. شرکت‌ها شکایت خواهند کرد که رعایت مقررات بسیار سخت است و بهانه می‌آورند که مقررات نوآوری را خفه می‌کند. تمام این ادعاها مسخره است. با این حال، ‌مقررات مربوط به ساندویچ‌فروشی‌ها بیشتر از شرکت‌های هوش مصنوعی است.

انتهای پیام/

برچسب‌ها:

نظر شما