به گزارش خبرگزاری صداوسیما، به نقل از سیانان، ترامپ وعده داده که «قوانین اضافی را کاهش دهد» و از ایلان ماسک، یکی دیگر از منتقدان دولت فعلی آمریکا، برای کمک به این روند کمک خواسته است. به طور خاص، حزب جمهوریخواه در برنامه انتخاباتیاش گفت که فرمان اجرایی ابلاغشده توسط جو بایدن را لغو خواهد کرد. این فرمان، اقداماتی را برای مدیریت خطرات هوش مصنوعی و جلوگیری از ایجاد تبعیض با این فناوری تعیین میکند.
به گفته سیانان، در سند تنظیمشده توسط جمهوریخواهان آمده است که این فرمان اجرایی، حاوی افکار «چپ افراطی» و مانعی بر سر نوآوری است.
ساندرا واچر، استاد فناوری و قانونگذاری در مؤسسه اینترنت دانشگاه آکسفورد است و دنیای هوش مصنوعی را به دقت رصد میکند. او به سیانان گفت: «هوش مصنوعی خطرهایی دارد که «باید پیش از این از طریق مقرراتگذاریهای سفت و سخت کنترل میشده.»
در ادامه چند مورد از خطرات هوش مصنوعی ذکر میشود:
تبعیض
سالهاست که سیستمهای هوش مصنوعی توانایی خود برای بازتولید سوگیریهای اجتماعی، مانند نژاد و جنسیت را نشان دادهاند. به این دلیل که این سیستمها با استفاده از اطلاعات فعالیتهای پیشین مردم آموزش میبینند و بسیاری از این فعالیتها سوگیرانه است. زمانی که از هوش مصنوعی برای تصمیمگیریهای مهم استفاده میشود، ممکن است نتایج تبعیضآمیز باشند.
واچر میگوید: «سوگیری، ذات این فناوریها است؛ زیرا با توجه به اطلاعاتی که از گذشته دارند تلاش میکنند تا آینده را پیشبینی کنند. آنها یاد میگیرند که چه کسی در گذشته در مکان خاصی استخدام شده، چه کسی به زندان رفته و بنابراین در بسیاری موارد، تصمیمهای سوگیرانه میگیرند.»
اندرو استریت، دستیار مدیر مؤسسه غیرانتفاعی آدا لاویس در لندن است. این مؤسسه در مورد امنیت و اخلاق هوش مصنوعی پژوهش میکند. او میگوید: «استفاده از هوش مصنوعی در اجرای قوانین قابل پیشبینی، یک مثال برای این خطا است.»
او همچنین اشاره کرد که بعضی ایستگاههای پلیس در آمریکا از نرمافزارهای مجهز به هوش مصنوعی کمک میگیرند که به تاریخچه اطلاعات جرائم اشراف دارد. با استفاده از این نرمافزارها میتوان پیشبینی کرد که چه جرائمی در آینده رخ خواهند داد. به گفته استریت، از آنجا که این اطلاعات عمدتا منعکسکننده نظارت بیش از حد بر برخی بخشهای خاص است، این پیشبینیها باعث میشود پلیس توجه خود را به همان بخشها متمرکز کرده و جنایات بیشتری را در آنجا گزارش کند. در عین حال، مناطق دیگری که در آنها جرم بیشتر رخ میدهد یا ممکن است رخ دهد، کمتر موردتوجه قرار میگیرند.
اطلاعات اشتباه
هوش مصنوعی میتواند تصویر، صوت و ویدئوهای گمراهکننده تولید کند. محتوایی که با استفاده از آن میتوان نشان داد شخصی کاری را انجام داده یا چیزی را گفته که در واقعیت رخ نداده است. این قابلیت میتواند برای تأثیر بر نتایج انتخابات یا ایجاد تصاویر مستهجن برای آزار و اذیت مردم و همچنین دیگر خطرات ممکن، استفاده شود.
در اوایل ماه نوامبر و پیش از انتخابات ریاستجمهوری آمریکا، تصاویر تولیدشده با هوش مصنوعی به شکل گستردهای در رسانههای اجتماعی دست به دست میشد؛ یکی از آن تصاویر، ویدئویی از کامالا هریس بود که توسط ایلان ماسک منتشر شد.
در ماه ژانویه هم بیش از ۲۰ هزار نفر در نیوهمپشایر آمریکا تماس خودکاری دریافت کردند که از هوش مصنوعی برای جعل صدای جو بایدن استفاده میکرد و به مردم میگفت در انتخابات اولیه ریاستجمهوری شرکت نکنند.
در سالهای پیشتر، اهداف این فناوری دختران بودند. دخترانی که با استفاده از هوش مصنوعی از آنها تصاویر مستهجن و غیرمتعارف تولید میشد.
استفاده خطرناک از هوش مصنوعی و خطرات آن
پژوهشگران هوش مصنوعی و بازیگران این صنعت، روی خطرات بزرگتری تمرکز کردهاند که این فناوری ایجاد میکند. از سؤالهای سادهای که مردم از چتبات ChatGPT میپرسند تا پرسشهایی مانند نحوه صادرات غیرقانونی اسلحه به دیگر کشورها و خارجشدن اختیار هوش مصنوعی از دست انسان.
منوج چادهاری، مسئول فناوری شرکت جیتربیت، یک شرکت نرمافزاری آمریکایی، به سیانان گفت: «میتوان از هوش مصنوعی برای انجام حملات سایبری بسیار پیچیده استفاده کرد؛ همچنین میتوان فرایند هک را خودکار کرد و سیستم تسلیحاتی مستقلی ساخت که میتواند به تمام جهان آسیب برساند.»
در ماه مارس، گزارشی به سفارش وزارت امور خارجه آمریکا تهیه شد که خطرات هوش مصنوعی تکاملی برای امنیت ملی را «فاجعهبار» توصیف میکرد. این گزارش خواستار قانونگذاریهای نظارتی «اضطراری» در کنار سایر اقدامات شد.
این گزارش عنوان کرد: «پیشرفتهترین سیستمهای هوش مصنوعی در بدترین حالت میتوانند یک تهدید برای انقراض گونههای بشر باشند.»
به گفته سیانان، یک سند مرتبط میگوید که سیستمهای هوش مصنوعی میتوانند برای اجرای «حملات سایبری با تأثیر بالا و قادر به فلج ساختن زیرساختهای حیاتی» مورداستفاده قرار بگیرند. این حملات میتوانند خطرات زیادی برای نوع بشر داشته باشند.
قدم بعدی چیست؟
اندرو استریت از سازمان آدا لاویس گفته: «بخشی از قانون (هوش مصنوعی آمریکا) در حال توسعه است؛ اما بسیار پراکنده است و آنچنان جامع نیست.»
او همچنین اشاره کرد که حالا برای قضاوت در این باره که دولت ترامپ قانونگذاری برای هوش مصنوعی را محدود میکند یا بیشتر توسعه میدهد، «خیلی زود است».
با این حال، او نگران است که لغو فرمان اجرایی بایدن به معنای پایان کار مؤسسه ایمنی هوش مصنوعی در دولت آمریکا باشد.
استریت میگوید این دستور «فوقالعاده مهم» وظیفه داشته که خطرات ناشی از مدلهای پیشرفته هوش مصنوعی را پیش از انتشار عمومی آنها بررسی کند.
این احتمال وجود دارد که ایلان ماسک برای وضع مقررات سختگیرانهتر در حوزه هوش مصنوعی تلاش کند. ماسک قرار است در دولت بعدی به عنوان مسئول وزارت تازهتأسیس «کارآمدی دولت» نقش ایفا کند.
ماسک بارها اعلام کرده است که هوش مصنوعی تهدیدی وجودی برای بشریت است. با این وجود یکی از شرکتهای او با نام xAI در حال توسعه یک چتبات هوش مصنوعی مولد است.
استریت ذکر کرد که ماسک، «حامی بزرگ» لایحهای در کالیفرنیا بود که حالا کنار گذاشته شده است. هدف این لایحه جلوگیری از برخی از فاجعهبارترین پیامدهای هوش مصنوعی، مانند از دست رفتن کنترل هوش مصنوعی از دست مردم بود. گاوین نیوسام، فرماندار دموکرات کالیفرنیا، در ماه سپتامبر به دلیل تهدیدی که این لایحه در مسیر نوآوری قرار میداد، آن را وتو کرد.
اما حلقه نزدیکان ترامپ به ماسک محدود نمیشود. در کنار او جی. دی. ونس هم ایستاده. معاون جدید رئیسجمهور در ماه جولای گفته بود که نگران «تلاشهای پیشگیرانه برای نظارت بیش از حد بر هوش مصنوعی» است.