شناسهٔ خبر: 69696100 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: برنا | لینک خبر

نفوذ ایلان ماسک بر ترامپ دردسر جدید هوش‌مصنوعی

به گفته یکی از دانشمندان و همکاران ایلان ماسک، نفوذ وی بر ترامپ می‌تواند منجر به استاندارد‌های سخت‌گیرانه‌تر ایمنی هوش‌مصنوعی شود. به گفته یکی از دانشمندان و همکاران ایلان ماسک، نفوذ وی بر ترامپ می‌تواند منجر به استاندارد‌های سخت‌گیرانه‌تر ایمنی هوش‌مصنوعی شود.

صاحب‌خبر -

به گزارش خبرنگار علم و فناوری خبرگزاری برنا، به گفته یکی از دانشمندان برجسته که با ایلان ماسک بر روی خطرات هوش‌مصنوعی همکاری کرده است، نفوذ ماسک بر دولت آینده ترامپ می‌تواند به وضع استاندارد‌های ایمنی سخت‌گیرانه‌تر برای هوش‌مصنوعی منجر شود.

مکس تگمارک، استاد هوش‌مصنوعی و فیزیکدان و اخترشناسی سوئدی- آمریکایی در موسسه فناوری ماساچوست (MIT)، اظهار کرد که حمایت ایلان ماسک از لایحه شکست‌ خورده هوش‌مصنوعی در کالیفرنیا، نگرانی‌های مستمر او را در مورد این فناوری نشان می‌دهد؛ مسئله‌ای که در کمپین انتخاباتی ترامپ چندان مطرح نشده بود.

تگمارک در این خصوص گفت انتظار می‌رود ماسک نفوذ زیادی در دولت ترامپ داشته باشد، ممکن است ترامپ را متقاعد کند که استاندارد‌هایی را معرفی کند که از توسعه هوش‌مصنوعی عمومی جلوگیری کند.

وی همچنین افزود: اگر ایلان بتواند ترامپ را در مسائل مربوط به هوش‌مصنوعی متقاعد کند، احتمالا شاهد تصویب استاندارد‌های ایمنی خواهیم بود، چیزی که مانع از توسعه AGI شود. 

تگمارک اشاره کرد که حمایت ماسک از لایحه SB ۱۰۴۷ در کالیفرنیا، که شرکت‌ها را موظف می‌کرد مدل‌های بزرگ هوش‌مصنوعی را قبل از انتشار آزمایش کنند، نشانه‌ای مثبت برای حامیان ایمنی هوش‌مصنوعی بود. این لایحه پس از اینکه گاوین نیوسام، فرماندار کالیفرنیا، آن را وتو کرد و گفت که ممکن است منجر به خروج کسب‌وکار‌های هوش‌مصنوعی از ایالت شود و نوآوری را متوقف کند، رد شد.

تگمارک گفت: ایلان ماسک اعلام کرد که از این لایحه حمایت می‌کند و می‌خواهد مقرراتی در این زمینه وجود داشته باشد. فکر می‌کنم که این کاملا غیرممکن نیست که او بتواند ترامپ را متقاعد کند که هوش‌مصنوعی باید کنترل شود.

ماسک سال گذشته استارتاپ هوش‌مصنوعی خود را راه‌اندازی کرد و گفت که جهان باید نگران آینده‌ای شبیه به فیلم «ترمیناتور» باشد تا از بدترین سناریوها، مانند فرار سیستم‌های هوش‌مصنوعی از کنترل انسان‌ها، جلوگیری کند. سایر متخصصان هوش‌مصنوعی نیز معتقدند که تمرکز بر نگرانی‌های آخرالزمانی ممکن است توجه را از مشکلات کوتاه‌مدت هوش‌مصنوعی، مانند محتوای دستکاری‌شده و گمراه‌کننده، منحرف کند.

دولت ترامپ اعلام کرده است که قصد دارد دستور اجرایی دولت بایدن در زمینه ایمنی هوش‌مصنوعی را لغو کند. این دستور شامل الزام شرکت‌ها به اشتراک‌گذاری نتایج آزمایش‌های ایمنی مدل‌های پرخطر هوش‌مصنوعی با دولت است؛ مدل‌هایی که تهدیدی برای امنیت ملی، امنیت اقتصادی یا سلامت عمومی دارند.

انتهای پیام/