شناسهٔ خبر: 63788977 - سرویس اجتماعی
منبع: صراط‌نیوز | لینک خبر

هوش‌مصنوعی زندگی انسان را به خطر می‌اندازد!

مدیرعامل سابق گوگل از نگرانی‌هایش در مورد آینده‌ی هوش مصنوعی می‌گوید.

صاحب‌خبر -

به گزارش پایگاه خبری صراط به نقل از زومیت، اریک اشمیت، مدیرعامل سابق گوگل، می‌گوید که اقدامات ایمنی کافی برای جلوگیری از آسیب‌های فاجعه‌بار هوش مصنوعی وجود ندارد.

اشمیت که در حال حاضر رئیس کمیسیون امنیت ملی در مورد هوش مصنوعی (NSCAI) است، در نشستی که توسط اکسیوس برگزار شد، هوش مصنوعی را به بمب‌های اتمی تشبیه کرد که آمریکا در سال ۱۹۴۵ روی ژاپن انداخت.

اشمیت در جریان تبادل نظر در این اجلاس به مایک آلن، یکی از بنیانگذاران اکسیوس، گفت: «پس از ناکازاکی و هیروشیما، ۱۸ سال طول کشید تا به معاهده‌ی ممنوعیت آزمایش سلاح اتمی و چیز‌هایی از این دست برسیم.»

اگرچه کسانی که این فناوری را می‌سازند، از OpenAI گرفته تا خود گوگل و فراتر از آن، یک سری اقدامات ایمنی برای مهار این فناوری ایجاد کرده‌اند، اما اشمیت گفت که فکر می‌کند ایمنی‌های فعلی کافی نیستند.

رئیس سابق گوگل گفت ظرف تنها ۵ تا ۱۰ سال، هوش مصنوعی می‌تواند به اندازه‌ای قدرتمند شود که به بشریت آسیب برساند. او ادامه داد: «بدترین حالت این است که کامپیوتر خودش بتواند تصمیم بگیرد چه کاری انجام دهد و اگر آن‌ها بتوانند به سیستم‌های تسلیحاتی دسترسی پیدا کنند یا به قابلیت‌های وحشتناک دیگری برسند، ممکن است در مورد آن به ما انسان‌ها دروغ بگویند.»

اشمیت گفت برای جلوگیری از چنین نتیجه‌ی وحشتناکی یک سازمان غیردولتی شبیه به هیئت بین دولتی تغییرات آب و هوایی سازمان ملل متحد (IPCC) باید تاسیس شود تا اطلاعات دقیقی را به سیاست‌گذاران بدهد و به آن‌ها در تصمیم‌گیری در مورد هوش مصنوعی و احتمال قدرتمند شدن آن، کمک کند.

در حالی که رئیس سابق گوگل مرتباً نگرانی‌های خود در مورد هوش مصنوعی را علنی می‌کند، یان لی‌کان، مدیر بخش هوش مصنوعی متا، شدیداً موضع مخالف گرفته است.

ماه گذشته، لی‌کان به فایننشال تایمز گفت که این فناوری به اندازه‌ی کافی هوشمند نیست که بتواند به تنهایی بشریت را تهدید کند. او با یکی از پیشگامان هوش مصنوعی، جفری هینتون، که اوایل امسال گوگل را بابت نگرانی‌های خود درمورد هوش مصنوعی ترک کرد، بر سر این مفهوم که مدل‌های زبانی بزرگ (LLM) به اندازه‌ی کافی پیچیده هستند تا درک کنند که انسان‌ها به آن‌ها چه می‌گویند، بحث کردند.