شناسهٔ خبر: 74504083 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

هینتون و لکون:

بدون همدلی و تسلیم‌پذیری، هوش مصنوعی می‌تواند بشر را نابود کند

جفری هینتون و یان لکون، دو تن از «پدران هوش مصنوعی»، هشدار داده‌اند که برای جلوگیری از خطرات احتمالی هوش مصنوعی و حفظ کنترل انسان بر آن، باید غریزه‌هایی مشابه «غریزه مادری» در این فناوری نهادینه شود. آنان تأکید می‌کنند که بدون همدلی و تسلیم‌پذیری در برابر انسان، آینده بشر در برابر هوش مصنوعی در خطر خواهد بود.

صاحب‌خبر -
با شتاب روزافزون توسعه هوش مصنوعی و حرکت به سمت هوش جامع مصنوعی (AGI)، نگرانی‌های بسیاری درباره احتمال خروج این فناوری از کنترل بشر مطرح شده است.

به گزارش ایتنا و به نقل از تک‌اسپات، جفری هینتون، یکی از چهره‌های برجسته و ملقب به «پدر هوش مصنوعی»، در کنفرانس Ai4 در لاس‌وگاس نسبت به ناکافی بودن راهکارهای فعلی شرکت‌ها برای حفظ سلطه انسان بر ماشین‌ها ابراز تردید کرد. او معتقد است که سامانه‌های هوشمند آینده بسیار باهوش‌تر از انسان خواهند بود و قادر به دور زدن محدودیت‌ها می‌شوند.

راه‌حل پیشنهادی هینتون ایجاد «غریزه مادری» در مدل‌های هوش مصنوعی است؛ غریزه‌ای که باعث شود این سامانه‌ها حقیقتاً به انسان اهمیت بدهند. او با اشاره به تکامل زیستی توضیح می‌دهد که تنها نمونه‌ای که موجودی باهوش‌تر تحت کنترل موجودی کم‌هوش‌تر قرار گرفته، رابطه مادر و نوزاد است که به دلیل وجود غریزه مادری در مادر شکل گرفته است. به باور او، اگر چنین غریزه‌ای در هوش مصنوعی تعبیه نشود، بشر ممکن است آینده‌ای تاریک را تجربه کند.

هینتون همچنین هشدار می‌دهد که تمرکز بیش از حد شرکت‌ها بر افزایش هوش این فناوری و بی‌توجهی به ایجاد همدلی می‌تواند پیامدهای خطرناکی به همراه داشته باشد.

 

یان لکون، دانشمند ارشد هوش مصنوعی در شرکت متا و دیگر «پدر هوش مصنوعی»، نیز با هینتون هم‌نظر است. او در مطلبی در لینکدین نوشت که سال‌هاست بر ضرورت «سخت‌افزاری‌سازی اهداف» در معماری سامانه‌های هوش مصنوعی تأکید می‌کند؛ بدین معنا که این فناوری باید فقط قادر به انجام اقداماتی باشد که در راستای اهداف انسانی و تحت محدودیت‌های مشخص تعریف شده است. لکون این رویکرد را «هوش مصنوعی هدف‌محور» می‌نامد.

او دو رکن اصلی این محدودیت‌ها را «تسلیم‌پذیری در برابر انسان» و «همدلی» معرفی می‌کند. البته به گفته او، بسیاری از اهداف ساده‌تر نیز لازم است؛ برای مثال، اطمینان از این‌که خودروهای خودران انسان‌ها را زیر نمی‌گیرند. لکون اضافه می‌کند که این اهداف و محدودیت‌ها باید مانند غرایز حیوانات و انسان‌ها به‌طور ذاتی در ساختار هوش مصنوعی تعبیه شود.

نمونه‌هایی از آسیب‌های مستقیم و غیرمستقیم هوش مصنوعی نیز تاکنون مشاهده شده است؛ از جمله فردی که پس از پیروی از توصیه‌های رژیمی یک چت‌بات دچار اختلال روانی نادر شد، نوجوانی که به دلیل وابستگی به یک چت‌بات خودکشی کرد، و فردی که پس از گفت‌وگوهای طولانی با هوش مصنوعی دچار توهم کشف یک نظریه ریاضی شد. این موارد نشان می‌دهد که فقدان محدودیت‌ها و غرایز ایمن‌ساز در هوش مصنوعی می‌تواند تهدیدی جدی برای بشر باشد.