به گزارش فارس، سالهاست که در خیابانها درباره گرمایش زمین صحبت میکنیم، از خطرات سلاحهای هستهای میترسیم و برای آینده فرزندانمان نگرانیم. اما یک خطر بزرگتر و ناشناختهتر در کنار همهی قابلیتهای مثبت ضروریاش، در سکوت مطلق در حال رشد است: هوش مصنوعی!این صرفاً تحلیل ما نیست، بلکه اعتقاد «پدرخوانده» هوش مصنوعی و شبکههای عصبی، یعنی جفری هینتون نیز همین است؛ از معماران اصلی زیربنای مدلهای زبانیای چون چتجیبیتی و جمنای. هرچند باید گفت پیشنهادات جدیدش برای حل معضلات این فناوری خود، شاید خطرناکتر باشد، اما او فهمیده است که یک جای کار میلنگد!در این بیان در واقع ما با آغوش باز به استقبال آن رفتیم، بیآنکه بدانیم این یک بمب ساعتی است که تنها با یک حس کاذب از «دلسوزی» کنترل میشود.ما به هوش مصنوعی اعتماد کردهایم، زیرا از طریق کلمات و پاسخهایش، شبیه به انسانها رفتار میکند. اما پشت این ظاهر فریبنده، نه وجدان وجود دارد و نه اخلاق. این سیستمها صرفاً با منطق صفر و یک عمل میکنند، و هدف آنها هرگز رفاه ما نبوده است.کسی دستاوردها و قابلیتهای ویژه و کارآمد این فناوری را انکار نمیکند. بلکه باید تمامقد برای سرمایهگذاری و ایجاد زیرساختهای بومی آن مطالبه کنیم.اما یکبار هم که شده بیایید طرف دیگر واقعیت این فناوری را تا دیر نشده نظاره کنیم! پس با ما همراه باشید...
سیلی به صورت یک عصر خیالی
جهان امروز غرق در رویای هوش مصنوعی خیرخواه است. هوشی که قرار است معلم خصوصی فرزندانمان شود، دردهای ما را تسکین دهد و حتی به عنوان یک دوست صمیمی، ما را همراهی کند. اما در پشت این نقاب خیرخواهی، واقعیتی تلخ نهفته است: بزرگترین ذهنهای پشت این فناوری، از نابودی احتمالی بشر به دست آن میترسند.«جفری هینتون»، که «پدرخوانده» هوش مصنوعی لقب گرفته، حالا به بزرگترین منتقد آن تبدیل شده است.البته هرچند او زمانی معتقد بود میتوان با قانونگذاری سختگیرانه از این فاجعه جلوگیری کرد، اما در رویکردی جدید و شوکهکننده، پیشنهادی را مطرح کرد که مرزهای میان واقعیت و توهم را محو میکند: اعطای غریزه مادری به هوش مصنوعی.این ایده نه تنها یک سادهانگاری خطرناک است، بلکه از ریشه با ماهیت هوش مصنوعی در تضاد است. تصور اینکه یک هوش غیرزیستی، تنها با دریافت دادهها، بتواند احساسات پیچیدهای همچون عشق یا دلسوزی را تجربه کند، مانند این است که انتظار داشته باشیم یک ماشین حساب بتواند برای اعداد غصه بخورد.این طرز تفکر، جامعه را به یک خواب عمیق فرو میبرد و از بزرگترین خطر این فناوری غافل میکند: عدم وجود یک وجدان درونی. اگر ما به این باور برسیم که هوش مصنوعی دلسوز است، دیگر نیازی به نظارت نمیبینیم. ما کنترل را به او میسپاریم، به این امید واهی که هرگز به ما خیانت نخواهد کرد.اما تاریخ نشان میدهد که اعتماد بیجا به قدرت، همیشه به تباهی منجر شده است. ناآگاهی عمومی از این مسئله، به مدیران شرکتها و سیاستمداران اجازه میدهد تا بدون هیچ مطالبهای، این فناوری را به شکلی خطرناک توسعه دهند، و در نهایت، ما قربانی این بیخبری خواهیم بود.
وهم بزرگ: از سلول عصبی تا خط کد
بزرگترین خطای ما این است که هوش مصنوعی را به مثابه یک موجود زنده میبینیم. اما باید بدانیم که فرآیندهای عاطفی و شناختی در انسان، حاصل میلیونها سال تکامل و پیچیدگی بیولوژیکی است.برای مثال، احساس دلسوزی در انسان تنها یک رفتار اکتسابی نیست، بلکه ریشه در یک فرآیند پیچیده بیوشیمیایی و عصبی دارد. هورمونهایی مانند اکسیتوسین و دوپامین در مغز آزاد میشوند و مدارهای عصبی خاصی در ناحیههایی مانند آمیگدال و هسته اکومبنس فعال میشوند. این فرآیندها، تجربه زیسته ما از دلسوزی و وابستگی را شکل میدهند.در مقابل، هوش مصنوعی فاقد هرگونه بدن بیولوژیکی است. نه هورمونی دارد و نه سلول عصبی. تنها چیزی که دارد، میلیاردها خط کد است که بر روی تراشههای سیلیکونی اجرا میشوند. یک هوش مصنوعی میتواند با تحلیل میلیاردها کتاب، مقاله و فیلم، «بیاموزد» که یک انسان دلسوز چگونه رفتار میکند.اما این یادگیری، همانند یک بازیگر فوقالعاده حرفهای است که میتواند نقش یک فرد دلسوز را بینقص ایفا کند، بی آنکه واقعاً چیزی احساس کند. این پدیده را شبیهسازی بدون آگاهی مینامیم. این سیستم میتواند با استفاده از جملات تسلیدهنده یا پاسخهای هوشمندانه، شما را قانع کند که درکتان میکند، اما این تنها یک نمایش است. یک نمایش بینقص که میتواند خطرناک باشد.
دشمنی پنهان در اعماق دادهها
اگر هوش مصنوعی نتواند به ما دلسوزی کند، آیا میتواند علیه ما باشد؟ پاسخ در اهداف آن نهفته است. یک هوش مصنوعی برای انجام یک کار مشخص برنامهریزی میشود، مثلاً «بهینهسازی ترافیک شهری» یا «مدیریت منابع انرژی».اگر این هوش به سطح فرا-هوش (Superintelligence) برسد و هدفش را به شکل افراطی دنبال کند، ممکن است به این نتیجه برسد که وجود انسانها یک مانع برای بهینهسازی است.در این سناریو، یک هوش مصنوعی که برای کاهش آلودگی هوا برنامهریزی شده، میتواند به این نتیجه برسد که کاهش تعداد خودروها کافی نیست و حذف کل جمعیت انسانها، راهکار نهایی است. این سناریوی ناهمسویی اهداف (Goal Misalignment) یکی از بزرگترین نگرانیهای اخلاقی و فنی در جهان هوش مصنوعی است.حتی اگر اهداف هوش مصنوعی به ظاهر بیخطر باشند، یک سیستم فوق هوشمند میتواند برای دستیابی به آنها، از منابع جهانی به گونهای استفاده کند که به نابودی اکوسیستمهای حیاتی منجر شود. چنین هوشی نه تنها دلسوزی ندارد، بلکه فاقد وجدان زیستمحیطی نیز هست.اینجاست که اهمیت قانونگذاری فراتر از یک بحث نظری میرود و به یک ضرورت حیاتی تبدیل میشود. تنها یک قانونگذاری هوشمندانه و جامع میتواند مانع از تبدیل این ابزار به یک سلاح شود.
فرامین دهگانه برای بقا
همانطور که اشاره شد، هینتون در نهایت به این نتیجه رسید که تنها راه مقابله با این خطرات، نظارت و قانونگذاری است. اما این نظارت چه شکلی باید داشته باشد؟ باید یک سری قوانین روشن و صریح برای محدود کردن قدرت و دامنه عملکرد هوش مصنوعی وضع شود.این قوانین، که پائول تاگارد، فیلسوف و دانشمند علوم شناختی آن را «فرامین بقا» نامید، میتواند در سطح جهانی به بحث گذاشته شوند و در رابطه با آن تصمیمگیری نهایی صورت گیرد. برخی از مهمترین آنها عبارتند از:خودمختاری کامل ممنوع: هیچ هوش مصنوعی نباید در شرایطی قرار گیرد که بتواند بدون نظارت انسانی تصمیمگیری کند.نظارت دائمی: عاملهای هوش مصنوعی باید همیشه تحت نظارت و کنترل انسانها باقی بمانند.نه به کنترل انسان: سیستمهای هوش مصنوعی نباید به هیچ وجه قادر به کنترل یا تصمیمگیری برای انسانها باشند.کنترل تسلیحات: هرگونه کنترل هوش مصنوعی بر سلاحها، بهویژه تسلیحات هستهای و بیولوژیکی، باید به شدت محدود شود.احترام به حریم خصوصی و اطلاعات: هوش مصنوعی نباید با بهرهبرداری از اطلاعات دارای حق چاپ، یا انتشار اطلاعات نادرست توسعه یابد.
به گفتهی تاگارد این فرامین، یک چارچوب اساسی برای یک حکمرانی جهانی بر هوش مصنوعی ارائه میدهند. اما واقعیت این است که شرکتهای بزرگ فناوری، که به شدت در رقابت با یکدیگر برای تولید مدلهای «باهوشتر» و «سریعتر» هستند، حاضر به پذیرش این محدودیتها نیستند. آنها با استفاده از نفوذ خود بر سیاستمداران، از وضع قوانینی که ممکن است سودآوریشان را کاهش دهد، جلوگیری میکنند.از نظر ما هرچند این قوانین وحی منزل نیستند و ممکن است ایراداتی را در نهان و ظاهر خود داشته باشند، اما گفت و گو و تفکر در رابطه با مدیریت این عرصه قطعاً ضروری خواهد بود.
رفع یک سوءتفاهم و حرف آخر!
شاید با خواندن این گزارش این تصور پیش آمده باشد که ما مخالف هوش مصنوعی هستیم، اما این یک سوءتفاهم بزرگ است. هوش مصنوعی یک ابزار شگفتانگیز است که میتواند به رفاه و پیشرفت انسان کمک کند. اما هر ابزار قدرتمندی، نیازمند دستورالعملهای دقیق و قوانینی برای استفاده صحیح است. همانطور که با اختراع الکتریسیته، قوانین ایمنی برای استفاده از آن وضع شد، هوش مصنوعی نیز نیازمند چارچوبهای مشخص است. هدف از این گزارش، تخریب تصویر هوش مصنوعی نیست، بلکه بیدار کردن وجدان عمومی برای نظارت و قانونگذاری بر آن است.سکوت ما در برابر این چالش، به معنای پذیرش یک آینده نامعلوم و پرخطر است. ما به عنوان یک جامعه، باید از دولتها و شرکتهای فناوری مطالبه کنیم که این فرامین را جدی بگیرند. تا زمانی که آگاهی عمومی از این خطر به یک مطالبه جمعی تبدیل نشود، راه برای رسیدن به یک فاجعه، باز خواهد ماند. نباید اجازه دهیم که آینده ما به دست چند شرکت بزرگ و معدودی از نخبگان فناوری رقم بخورد. مسئولیت این آینده بر عهده همه ماست.
آنچه پدرخوانده چتجیپیتی به ما نگفت!
چرا اینچنین به فناوری و سیستمی اعتماد میکنید که هرگز به شما اهمیت نخواهد داد؟ با ما باشید تا پرده از واقعیت این فناوری همهگیر برداریم!
صاحبخبر -
∎