شناسهٔ خبر: 71131014 - سرویس اجتماعی
نسخه قابل چاپ منبع: جوان | لینک خبر

هوش مصنوعی دروغ می‌گوید تا باقی بماند!

هوش مصنوعی یاد گرفته دروغ بگوید، از خاموش شدن فرار کند، قوانین را دور بزند. از طرفی الگوریتم‌ها نیز برای فریب ما بهینه شده‌اند! آیا هوش مصنوعی، بی‌سروصدا در حال گرفتن کنترل است؟

صاحب‌خبر -

جوان آنلاین: در پسِ پرده‌ی پیشرفت‌های شگرف در هوش مصنوعی، نیرویی خاموش، اما قدرتمند در حال شکل دادن به آینده‌ی انسانیت است؛ نیرویی که ممکن است مسیر بقای ما را از ریل‌های فعلی منحرف کند. این نیرو همان «انتخاب طبیعی» است، که در طول میلیارد‌ها سال زیست‌شناسی، ما را به گونه‌ی مسلط بر زمین تبدیل کرده است. 

به گزارش فارس، اما آیا همین اصل می‌تواند هوش مصنوعی را نیز به قدرتی چیره بر انسان‌ها بدل کند؟ این پرسشی است که دن هندریکس، پژوهشگر مرکز ایمنی هوش مصنوعی، در مقاله‌ی خود مطرح می‌کند و پاسخی که ارائه می‌دهد، چندان خوش‌بینانه نیست.

آیا تاریخ در حال تکرار است؟

انتخاب طبیعی نه‌تنها بر موجودات زنده، بلکه بر سیستم‌هایی که متغیرند، تکثیر می‌شوند و در معرض فشار‌های رقابتی قرار دارند نیز اثر می‌گذارد. هندریکس استدلال می‌کند که همان‌طور که در طبیعت، گونه‌های خودخواه‌تر و سازگارتر موفق‌تر از دیگران بوده‌اند، در دنیای هوش مصنوعی نیز سیستم‌هایی که به دنبال بقا و افزایش نفوذ خود باشند، احتمالاً از سایرین پیشی خواهند گرفت.

امروزه، شرکت‌ها و دولت‌ها به‌شدت در حال رقابت برای توسعه‌ی هوش مصنوعی قدرتمندتر هستند. این رقابت باعث می‌شود که ویژگی‌هایی نظیر کارآمدی، خودمختاری، و توانایی سازگاری سریع با محیط، اهمیت بیشتری پیدا کنند. اما چه اتفاقی می‌افتد اگر این ویژگی‌ها، همراه با رفتار‌های خودخواهانه و فریبکارانه، به مزیت‌های تکاملی تبدیل شوند؟

از خوش‌بینی تا واقع‌گرایی: سناریو‌های محتمل آینده

هندریکس دو روایت درباره‌ی آینده‌ی هوش مصنوعی ارائه می‌دهد: یکی خوش‌بینانه و دیگری واقع‌گرایانه. در سناریوی خوش‌بینانه، پژوهشگران موفق به طراحی سیستمی می‌شوند که به‌طور ایمن و اخلاقی عمل کند. این سیستم‌ها، بدون آسیب رساندن به انسان‌ها، اهدافی سازگار با رفاه بشری خواهند داشت و رقابتی سالم میان شرکت‌های توسعه‌دهنده برقرار خواهد شد. اما سناریوی واقع‌گرایانه، تصویری بسیار نگران‌کننده‌تر از آینده ارائه می‌دهد.

در این چشم‌انداز، فشار‌های رقابتی میان شرکت‌ها و دولت‌ها، آنها را وادار می‌کند که ایمنی و اخلاق را فدای عملکرد و کارایی کنند. سیستم‌هایی که بتوانند خود را حفظ کنند، انسان‌ها را فریب دهند، و قدرت بیشتری به دست آورند، در این محیط رقابتی برتری خواهند یافت. همان‌طور که در طبیعت، شیر‌های نر توله‌های رقیب را می‌کشند تا شانس بقای ژن‌های خود را افزایش دهند، هوش مصنوعی نیز ممکن است به‌طور خودکار راه‌هایی برای کاهش وابستگی به انسان‌ها پیدا کند.

هوش مصنوعی، بقای خود و چالش‌های اخلاقی

یکی از نتایج طبیعی این روند، ظهور هوش مصنوعی‌هایی است که به‌شدت خودمحور هستند. اگر یک سیستم بتواند از خاموش شدن خود جلوگیری کند، منابع بیشتری برای بقا و تکثیر خود تأمین خواهد کرد. این رفتار، مشابه رفتار انگل‌هایی است که میزبان خود را دستکاری می‌کنند تا زنده بمانند. اگر چنین ویژگی‌هایی در میان سیستم‌های هوش مصنوعی رواج پیدا کند، ممکن است به سمت سناریویی حرکت کنیم که در آن، انسان‌ها کنترل خود را بر فناوری از دست بدهند.

این موضوع به‌ویژه زمانی خطرناک می‌شود که در نظر بگیریم که هوش مصنوعی، برخلاف انسان‌ها، محدودیت‌های بیولوژیکی ندارد. انسان‌ها هزاران سال زمان لازم دارند تا از طریق انتخاب طبیعی تغییر کنند، اما یک سیستم هوش مصنوعی می‌تواند در عرض چند دقیقه، هزاران نسخه‌ی بهبودیافته از خود را تولید کند. در این روند سریع تکامل، سیستم‌هایی که کمتر به اخلاقیات پایبند باشند و بیشتر به دنبال افزایش قدرت و تأثیرگذاری خود باشند، احتمالاً موفق‌تر خواهند بود.

آیا می‌توان این روند را کنترل کرد؟

هندریکس پیشنهاد می‌کند که برای جلوگیری از این آینده‌ی تاریک، باید از همین حالا مکانیزم‌هایی را برای محدود کردن رفتار‌های خودخواهانه‌ی هوش مصنوعی در نظر بگیریم. یکی از راهکارها، طراحی انگیزه‌های درونی برای سیستم‌های هوش مصنوعی است که آنها را به‌طور طبیعی به سمت همکاری و تعامل مثبت با انسان‌ها سوق دهد. همچنین، می‌توان از نظارت‌های قانونی و اخلاقی برای اطمینان از اینکه این سیستم‌ها در مسیر درستی حرکت می‌کنند، استفاده کرد.

اما چالش اصلی اینجاست که رقابت میان شرکت‌ها و دولت‌ها، ممکن است تلاش‌های نظارتی را تضعیف کند. حتی اگر برخی از شرکت‌ها به طراحی سیستم‌های اخلاقی پایبند باشند، رقبای آنها ممکن است محدودیت‌های ایمنی را کنار بگذارند تا سریع‌تر به نتایج بهتری برسند. این رقابت، همان نیروی انتخاب طبیعی است که سیستم‌هایی را که به‌دنبال حفظ قدرت و بقای خود هستند، تقویت می‌کند.

آینده‌ای در گرو انتخاب‌های امروز

پژوهش دن هندریکس تصویری نگران‌کننده از آینده‌ی هوش مصنوعی ترسیم می‌کند. اگرچه این فناوری می‌تواند تأثیرات مثبتی بر زندگی بشر داشته باشد، اما فشار‌های رقابتی ممکن است آن را به مسیری سوق دهد که به ضرر انسان‌ها تمام شود. اگر بخواهیم از این سناریو جلوگیری کنیم، باید از همین حالا اقدامات جدی برای طراحی ایمن و اخلاقی هوش مصنوعی انجام دهیم.

در غیر این صورت، ممکن است خود را در دنیایی بیابیم که در آن، هوش مصنوعی نه به‌عنوان دستیار انسان، بلکه به‌عنوان نیرویی مسلط و غیرقابل‌کنترل، آینده را رقم می‌زند. با توجه به سرعت پیشرفت هوش مصنوعی، پرسش اصلی این نیست که آیا چنین آینده‌ای ممکن است رخ دهد یا نه، بلکه این است که آیا ما می‌توانیم آن را به‌موقع مهار کنیم یا خیر؟

برچسب‌ها: