شناسهٔ خبر: 75369815 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: شفقنا | لینک خبر

هوش مصنوعی می‌تواند جهان را به پایان برساند/ گزارش نیویورک‌تایمز

صاحب‌خبر -

شفقنا آینده- استیون ویت نویسنده کتاب «ماشین متفکر»- درباره تاریخچه غول هوش مصنوعی، انویدیا- درباره احتمال مرگ جهان به دست هوش مصنوعی نوشته است: هوش مصنوعی می‌تواند جهان را به پایان برساند! این نویسنده در جدیدترین مطلبی که در روزنامه نیویورک‌تایمز منتشر شده؛ جهان را با این پرسش مواجه کرده که جهان تا چه حد و اندازه‌ای باید از هوش مصنوعی هراس داشته باشد؟!

به گزارش سرویس ترجمه شفقنا از روزنامه نیویورک‌تایمز؛ از زمان آغاز چت‌جی‌پی‌تی در اواخر سال 2022 از متخصصان بسیاری این سوال را پرسیده‌ایم که «واقعاً چقدر باید از هوش مصنوعی ترسید»؟

پاسخ‌های بسیاری نیز به این پرسش داده شده.

یوشع بنجیو دانشمند پیشگام هوش مصنوعی و استاد علوم کامپیوتر دانشگاه مونترال که بیشتر از هر محقق زنده دیگر در هر رشته‌ای صحبت‌هایش در رسانه‌ها نقل شده و مورد استناد قرار گرفته؛ در سال 2024 در پاسخ به این پرسش به روزنامه نیویورک‌تایمز گفت که فکر آینده خواب را از چشمش گرفته است. او در آن زمان گفت که به طور خاص نگران این است که هوش مصنوعی با مهندسی یک پاتوژن کشنده- مانند نوعی ابرویروس کرونا- در جهت نابودی بشریت اقدام کند. به عقیده این دانشمند هوش مصنوعی «از نظر مقیاس خطر فعلاً در حال حاضر چیزی نزدیک به این خطر وجود ندارد».

درباره دیدگاه دکتر بنگیو البته در میان دانشمندان این عرصه اجماع کاملی وجود ندارد. به عنوان مثال یان لکان یکی دیگر از دانشمندان پراستناد جهان که رییس تحقیقات هوش مصنوعی در کمپانی متای مارک زاکربرگ است، عقیده دارد که هوش مصنوعی دوران جدیدی از رفاه را آغاز خواهد کرد- و بحث در مورد خطر وجودی هوش مصنوعی را مسخره می‌داند و می‌گوید که «هوش مصنوعی به عنوان تقویت‌کننده هوش انسانی عمل خواهد کرد».

وقتی شکافت هسته‌ای در اواخر دهه ۱۹۳۰ کشف شد، فیزیکدانان ظرف چند ماه به این نتیجه رسیدند که می‌توان از آن برای ساخت بمب استفاده کرد. در حال حاضر سال‌هاست که اپیدمیولوژیست‌ها در مورد پتانسیل شیوع یک بیماری همه‌گیر و اخترفیزیکدانان نیز در مورد خطر برخورد سیارک به کره زمین اتفاق نظر دارند. با این حال بعد از یک دهه بحث و جدل شدید در مورد خطرات هوش مصنوعی، هنوز چنین اجماعی در این زمینه به وجود نیامده است- و این جلوی هر اجماعی در زمینه چگونگی واکنش به خطرات احتمالی هوش مصنوعی را می‌گیرد. در واقع در شرایطی که نیمی از دانشمندان در مورد خطرات واقعی هوش مصنوعی توافقی ندارند، چگونه می‌توان درباره این که چگونه باید به این خطرات واکنش نشان داد، به توافق رسید؟

یکی از پاسخ‌هایی که می‌توان در این زمینه داد، این است که بیاییم داده‌های موجود را در نظر بگیریم. برخی از دانشمندان پس از انتشار چت‌جی‌پی‌تی۵ در ماه اوت، از نقطه اوج هوش مصنوعی گفتند. با این حال تحلیل‌های کارشناسان حکایت از این می‌کند که این تصور درست نیست. از چت‌جی‌پی‌تی۵ خیلی کارها برمی‌آید که هیچ هوش مصنوعی دیگری قادر به انجام آن نیست. می‌تواند یک وب سرور را هک کند. می‌تواند اشکال جدیدی از حیات را طراحی کند. حتی می‌تواند خودش هوش مصنوعی ساده خود را از ابتدا بسازد.

در تمام ده سال گذشته بحث در مورد خطرات هوش مصنوعی از مباحث نظری فراتر نرفته است. در این زمینه نگاه‌های بدبینانه‌ای از قبیل نگاه الیزر یودکوفسکی و نیت سوارز، در کتاب پرفروش «اگر کسی آن را بسازد، همه می‌میرند» تا حد زیادی در بیان نکات خود به فلسفه و افسانه‌های جنجالی متکی هستند. اما با این حال در شرایطی که در حال حاضر گروهی پرشمار از متخصصان پیشتاز در حال تحقیق در مورد توانایی‌های واقعی هوش مصنوعی هستند، به نظر می‌رسد در تحلیل این موضوع نیاز چندانی به افسانه‌ها نداشته باشیم. به هر حال در سه سالی که از انتشار چت‌جی‌پی‌تی می‌گذرد، شواهد و ارزیابی‌های زیادی در این زمینه ارائه شده است. و متأسفانه این شواهد و ارزیابی‌ها مانند تحلیل‌ها و تخیلات فرقه‌هایی که در هر بزنگاه تاریخی خبر از فرارسیدن آخرالزمان می‌دهند، ترسناک هستند.

ادامه این مطلب و متن کامل آن را اینجا بخوانید