شناسهٔ خبر: 69841591 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: صدا و سیما | لینک خبر

سی‌ان‌ان:

تأثیر ایلان ماسک بر سیاست‌های دولت ترامپ در حوزه فناوری

دونالد ترامپ در آستانه ورود به کاخ سفید برای بار دوم است. در دستور کار او، نظارت بر روند توسعه هوش مصنوعی است؛ فناوری که احتمالا قدرتمندترین فناوری عصر ماست. اما حضور ایلان ماسک، مالک سکوی ایکس (توئیتر سابق) در کنار او، چه تأثیری بر سیاست‌هایش در این حوزه خواهد گذاشت؟

صاحب‌خبر -

به گزارش خبرگزاری صداوسیما، به نقل از سی‌ان‌ان، ترامپ وعده داده که «قوانین اضافی را کاهش دهد» و از ایلان ماسک، یکی دیگر از منتقدان دولت فعلی آمریکا، برای کمک به این روند کمک خواسته است. به طور خاص، حزب جمهوری‌خواه در برنامه انتخاباتی‌اش گفت که فرمان اجرایی ابلاغ‌شده توسط جو بایدن را لغو خواهد کرد. این فرمان، اقداماتی را برای مدیریت خطرات هوش مصنوعی و جلوگیری از ایجاد تبعیض با این فناوری تعیین می‌کند.
به گفته سی‌ان‌ان، در سند تنظیم‌شده توسط جمهوری‌خواهان آمده است که این فرمان اجرایی، حاوی افکار «چپ افراطی» و مانعی بر سر نوآوری است.
ساندرا واچر، استاد فناوری و قانون‌گذاری در مؤسسه اینترنت دانشگاه آکسفورد است و دنیای هوش مصنوعی را به دقت رصد می‌کند. او به سی‌ان‌ان گفت: «هوش مصنوعی خطر‌هایی دارد که «باید پیش از این از طریق مقررات‌گذاری‌های سفت و سخت کنترل می‌شده.»

در ادامه چند مورد از خطرات هوش مصنوعی ذکر می‌شود:

تبعیض
سال‌هاست که سیستم‌های هوش مصنوعی توانایی خود برای بازتولید سوگیری‌های اجتماعی، مانند نژاد و جنسیت را نشان داده‌اند. به این دلیل که این سیستم‌ها با استفاده از اطلاعات فعالیت‌های پیشین مردم آموزش می‌بینند و بسیاری از این فعالیت‌ها سوگیرانه است. زمانی که از هوش مصنوعی برای تصمیم‌گیری‌های مهم استفاده می‌شود، ممکن است نتایج تبعیض‌آمیز باشند.
واچر می‌گوید: «سوگیری، ذات این فناوری‌ها است؛ زیرا با توجه به اطلاعاتی که از گذشته دارند تلاش می‌کنند تا آینده را پیش‌بینی کنند. آنها یاد می‌گیرند که چه کسی در گذشته در مکان خاصی استخدام شده، چه کسی به زندان رفته و بنابراین در بسیاری موارد، تصمیم‌های سوگیرانه می‌گیرند.»
اندرو استریت، دستیار مدیر مؤسسه غیرانتفاعی آدا لاویس در لندن است. این مؤسسه در مورد امنیت و اخلاق هوش مصنوعی پژوهش می‌کند. او می‌گوید: «استفاده از هوش مصنوعی در اجرای قوانین قابل پیش‌بینی، یک مثال برای این خطا است.»
او همچنین اشاره کرد که بعضی ایستگاه‌های پلیس در آمریکا از نرم‌افزار‌های مجهز به هوش مصنوعی کمک می‌گیرند که به تاریخچه اطلاعات جرائم اشراف دارد. با استفاده از این نرم‌افزار‌ها می‌توان پیش‌بینی کرد که چه جرائمی در آینده رخ خواهند داد. به گفته استریت، از آنجا که این اطلاعات عمدتا منعکس‌کننده نظارت بیش از حد بر برخی بخش‌های خاص است، این پیش‌بینی‌ها باعث می‌شود پلیس توجه خود را به همان بخش‌ها متمرکز کرده و جنایات بیشتری را در آنجا گزارش کند. در عین حال، مناطق دیگری که در آنها جرم بیشتر رخ می‌دهد یا ممکن است رخ دهد، کمتر موردتوجه قرار می‌گیرند.

اطلاعات اشتباه
هوش مصنوعی می‌تواند تصویر، صوت و ویدئو‌های گمراه‌کننده تولید کند. محتوایی که با استفاده از آن می‌توان نشان داد شخصی کاری را انجام داده یا چیزی را گفته که در واقعیت رخ نداده است. این قابلیت می‌تواند برای تأثیر بر نتایج انتخابات یا ایجاد تصاویر مستهجن برای آزار و اذیت مردم و همچنین دیگر خطرات ممکن، استفاده شود.
در اوایل ماه نوامبر و پیش از انتخابات ریاست‌جمهوری آمریکا، تصاویر تولیدشده با هوش مصنوعی به شکل گسترده‌ای در رسانه‌های اجتماعی دست به دست می‌شد؛ یکی از آن تصاویر، ویدئویی از کامالا هریس بود که توسط ایلان ماسک منتشر شد.
در ماه ژانویه هم بیش از ۲۰ هزار نفر در نیوهمپشایر آمریکا تماس خودکاری دریافت کردند که از هوش مصنوعی برای جعل صدای جو بایدن استفاده می‌کرد و به مردم می‌گفت در انتخابات اولیه ریاست‌جمهوری شرکت نکنند.
در سال‌های پیشتر، اهداف این فناوری دختران بودند. دخترانی که با استفاده از هوش مصنوعی از آنها تصاویر مستهجن و غیرمتعارف تولید می‌شد.

ایلان ماسک چه تأثیری بر سیاست‌های ترامپ در حوزه فناوری خواهد گذاشت؟

استفاده خطرناک از هوش مصنوعی و خطرات آن
پژوهشگران هوش مصنوعی و بازیگران این صنعت، روی خطرات بزرگ‌تری تمرکز کرده‌اند که این فناوری ایجاد می‌کند. از سؤال‌های ساده‌ای که مردم از چت‌بات ChatGPT می‌پرسند تا پرسش‌هایی مانند نحوه صادرات غیرقانونی اسلحه به دیگر کشور‌ها و خارج‌شدن اختیار هوش مصنوعی از دست انسان.
منوج چادهاری، مسئول فناوری شرکت جیتربیت، یک شرکت نرم‌افزاری آمریکایی، به سی‌ان‌ان گفت: «می‌توان از هوش مصنوعی برای انجام حملات سایبری بسیار پیچیده استفاده کرد؛ همچنین می‌توان فرایند هک را خودکار کرد و سیستم تسلیحاتی مستقلی ساخت که می‌تواند به تمام جهان آسیب برساند.»
در ماه مارس، گزارشی به سفارش وزارت امور خارجه آمریکا تهیه شد که خطرات هوش مصنوعی تکاملی برای امنیت ملی را «فاجعه‌بار» توصیف می‌کرد. این گزارش خواستار قانون‌گذاری‌های نظارتی «اضطراری» در کنار سایر اقدامات شد.
این گزارش عنوان کرد: «پیشرفته‌ترین سیستم‌های هوش مصنوعی در بدترین حالت می‌توانند یک تهدید برای انقراض گونه‌های بشر باشند.»
به گفته سی‌ان‌ان، یک سند مرتبط می‌گوید که سیستم‌های هوش مصنوعی می‌توانند برای اجرای «حملات سایبری با تأثیر بالا و قادر به فلج ساختن زیرساخت‌های حیاتی» مورداستفاده قرار بگیرند. این حملات می‌توانند خطرات زیادی برای نوع بشر داشته باشند.

قدم بعدی چیست؟
اندرو استریت از سازمان آدا لاویس گفته: «بخشی از قانون (هوش مصنوعی آمریکا) در حال توسعه است؛ اما بسیار پراکنده است و آنچنان جامع نیست.»
او همچنین اشاره کرد که حالا برای قضاوت در این باره که دولت ترامپ قانون‌گذاری برای هوش مصنوعی را محدود می‌کند یا بیشتر توسعه می‌دهد، «خیلی زود است». 
با این حال، او نگران است که لغو فرمان اجرایی بایدن به معنای پایان کار مؤسسه ایمنی هوش مصنوعی در دولت آمریکا باشد.
استریت می‌گوید این دستور «فوق‌العاده مهم» وظیفه داشته که خطرات ناشی از مدل‌های پیشرفته هوش مصنوعی را پیش از انتشار عمومی آنها بررسی کند.

این احتمال وجود دارد که ایلان ماسک برای وضع مقررات سخت‌گیرانه‌تر در حوزه هوش مصنوعی تلاش کند. ماسک قرار است در دولت بعدی به عنوان مسئول وزارت تازه‌تأسیس «کارآمدی دولت» نقش ایفا کند.
ماسک بار‌ها اعلام کرده است که هوش مصنوعی تهدیدی وجودی برای بشریت است. با این وجود یکی از شرکت‌های او با نام xAI در حال توسعه یک چت‌بات هوش مصنوعی مولد است.
استریت ذکر کرد که ماسک، «حامی بزرگ» لایحه‌ای در کالیفرنیا بود که حالا کنار گذاشته شده است. هدف این لایحه جلوگیری از برخی از فاجعه‌بار‌ترین پیامد‌های هوش مصنوعی، مانند از دست رفتن کنترل هوش مصنوعی از دست مردم بود. گاوین نیوسام، فرماندار دموکرات کالیفرنیا، در ماه سپتامبر به دلیل تهدیدی که این لایحه در مسیر نوآوری قرار می‌داد، آن را وتو کرد.
اما حلقه نزدیکان ترامپ به ماسک محدود نمی‌شود. در کنار او جی. دی. ونس هم ایستاده. معاون جدید رئیس‌جمهور در ماه جولای گفته بود که نگران «تلاش‌های پیشگیرانه برای نظارت بیش از حد بر هوش مصنوعی» است.