شناسهٔ خبر: 60483859 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: صدا و سیما | لینک خبر

مدیران صنعت هوش مصنوعی:

هوش مصنوعی باید مانند جنگ هسته‌ای یک اولویت جهانی باشد

به گفته مدیران صنعت هوش مصنوعی، مشکلات این فناوری برابر با جنگ هسته‌ای است و کاهش آن باید یک «اولویت جهانی» باشد.

صاحب‌خبر -

هوش مصنوعی باید مانند جنگ هسته ای یک اولویت جهانی باشدبه گزارش خبرگزاری صداوسیما به نقل از انگجت، با معرفی چت‌جی‌پی‌تی، بارد و دیگر مدل‌های زبانی بزرگ (LLM)، هشدار‌هایی از سوی افراد درگیر مانند ایلان ماسک در مورد خطرات ناشی از هوش مصنوعی (AI) شنیده‌ایم. اکنون، گروهی از مدیران برجسته این صنعت بیانیه‌ای یک جمله‌ای صادر کرده‌اند که به طور موثر این ترس‌ها را تایید می‌کند.

در این بیانیه آمده: کاهش خطرات ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه گیر و جنگ هسته‌ای یک اولویت جهانی باشد.

این بیانیه به مرکز ایمنی هوش مصنوعی ارسال شد، سازمانی که ماموریت آن کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی است. امضاکنندگان این بیانیه از صنعت هوش مصنوعی هستند، از جمله سم آلتمن، مدیر اجرایی اوپن‌ای آی و دمیس حسابیس، رئیس گوگل دیپ مایند. جفری هینتون و یوشوا بنجیو، محققین برنده جایزه تورینگ که بسیاری آن‌ها را پدرخوانده هوش مصنوعی مدرن می‌دانند هم از امضا کنندگان هستند.

در ماه مارس، ماسک، استیو وزنیاک و بیش از هزار نفر دیگر خواستار توقف شش ماهه هوش مصنوعی شدند تا به صنعت و عموم مردم اجازه دهد به طور موثر با این فناوری آشنا شوند. در آن نامه آمده: ماه‌های اخیر شاهد بودیم که آزمایشگاه‌های هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر که هیچ‌کس حتی سازندگان آن‌ها نمی‌توانند آن‌ها را درک، پیش‌بینی یا به طور قابل اعتماد کنترل کنند، قفل کرده‌اند.

اگرچه هوش مصنوعی همانطور که برخی می‌ترسیدند خودآگاه نیست، اما در حال حاضر خطرات سواستفاده و آسیب را از طریق دیپ فیک، اطلاعات نادرست خودکار و موارد دیگر ایجاد می‌کند. مدل‌های زبانی بزرگ همچنین می‌توانند نحوه تولید محتوا، هنر و ادبیات را تغییر دهند و به طور بالقوه بر مشاغل متعدد تاثیر بگذارند.

جو بایدن، رئیس‌جمهور آمریکا اخیرا اعلام کرد که باید مشخص شود آیا هوش مصنوعی خطرناک است یا خیر، و افزود: به نظر من، شرکت‌های فناوری این مسئولیت را دارند که قبل از عمومی کردن محصولاتشان از ایمن بودن آن‌ها مطمئن شوند و هوش مصنوعی می‌تواند به مقابله با آن کمک کند. برخی از چالش‌های بسیار دشوار مانند بیماری‌ها و تغییرات آب و هوایی، اما باید به خطرات بالقوه برای جامعه، اقتصاد و امنیت ملی ما نیز بپردازد. آلتمن در جلسه اخیر کاخ سفید خواستار تنظیم هوش مصنوعی به دلیل خطرات احتمالی شد.

با وجود نظرات زیادی که در اطراف وجود دارد، بیانیه کوتاه جدید به معنای نشان دادن نگرانی مشترک در مورد خطرات هوش مصنوعی است، حتی اگر طرفین در مورد این خطرات توافق نداشته باشند.

در مقدمه این بیانیه آمده: کارشناسان، روزنامه نگاران، سیاست گذاران و مردم به طور فزاینده‌ای در حال بحث در مورد طیف گسترده‌ای از خطرات مهم و فوری ناشی از هوش مصنوعی هستند. با این وجود، ابراز نگرانی در مورد برخی از شدیدترین خطرات هوش مصنوعی پیشرفته می‌تواند دشوار باشد. این بیانیه مختصر با هدف غلبه بر این مانع و باز کردن بحث است. همچنین به منظور ایجاد دانش مشترک از تعداد فزاینده متخصصان و مردم است. چهره‌هایی که برخی از جدی‌ترین خطرات هوش مصنوعی پیشرفته را نیز جدی می‌گیرند.

نظر شما