شناسهٔ خبر: 74622463 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: الف | لینک خبر

آنچه پدرخوانده چت‌جی‌پی‌تی به ما نگفت!

چرا این‌چنین به فناوری و سیستمی اعتماد می‌کنید که هرگز به شما اهمیت نخواهد داد؟ با ما باشید تا پرده از واقعیت این فناوری همه‌گیر برداریم!

صاحب‌خبر -

به گزارش فارس، سال‌هاست که در خیابان‌ها درباره گرمایش زمین صحبت می‌کنیم، از خطرات سلاح‌های هسته‌ای می‌ترسیم و برای آینده فرزندانمان نگرانیم. اما یک خطر بزرگتر و ناشناخته‌تر در کنار همه‌ی قابلیت‌های مثبت ضروری‌اش، در سکوت مطلق در حال رشد است: هوش مصنوعی!این صرفاً تحلیل ما نیست، بلکه اعتقاد «پدرخوانده» هوش مصنوعی و شبکه‌های عصبی، یعنی جفری هینتون نیز همین است؛ از معماران اصلی زیربنای مدل‌های زبانی‌ای چون چت‌جی‌بی‌تی و جمنای. هرچند باید گفت پیشنهادات جدیدش برای حل معضلات این فناوری خود، شاید خطرناکتر باشد، اما او فهمیده است که یک جای کار می‌لنگد!در این بیان در واقع ما با آغوش باز به استقبال آن رفتیم، بی‌آنکه بدانیم این یک بمب ساعتی است که تنها با یک حس کاذب از «دلسوزی» کنترل می‌شود.ما به هوش مصنوعی اعتماد کرده‌ایم، زیرا از طریق کلمات و پاسخ‌هایش، شبیه به انسان‌ها رفتار می‌کند. اما پشت این ظاهر فریبنده، نه وجدان وجود دارد و نه اخلاق. این سیستم‌ها صرفاً با منطق صفر و یک عمل می‌کنند، و هدف آن‌ها هرگز رفاه ما نبوده است.کسی دستاوردها و قابلیت‌های ویژه و کارآمد این فناوری را انکار نمی‌کند. بلکه باید تمام‌قد برای سرمایه‌گذاری و ایجاد زیرساخت‌های بومی آن مطالبه کنیم.اما یکبار هم که شده بیایید طرف دیگر واقعیت این فناوری را تا دیر نشده نظاره کنیم! پس با ما همراه باشید...
 
سیلی به صورت یک عصر خیالی
جهان امروز غرق در رویای هوش مصنوعی خیرخواه است. هوشی که قرار است معلم خصوصی فرزندانمان شود، دردهای ما را تسکین دهد و حتی به عنوان یک دوست صمیمی، ما را همراهی کند. اما در پشت این نقاب خیرخواهی، واقعیتی تلخ نهفته است: بزرگترین ذهن‌های پشت این فناوری، از نابودی احتمالی بشر به دست آن می‌ترسند.«جفری هینتون»، که «پدرخوانده» هوش مصنوعی لقب گرفته، حالا به بزرگترین منتقد آن تبدیل شده است.البته هرچند او زمانی معتقد بود می‌توان با قانون‌گذاری سختگیرانه از این فاجعه جلوگیری کرد، اما در رویکردی جدید و شوکه‌کننده، پیشنهادی را مطرح کرد که مرزهای میان واقعیت و توهم را محو می‌کند: اعطای غریزه مادری به هوش مصنوعی.این ایده نه تنها یک ساده‌انگاری خطرناک است، بلکه از ریشه با ماهیت هوش مصنوعی در تضاد است. تصور اینکه یک هوش غیرزیستی، تنها با دریافت داده‌ها، بتواند احساسات پیچیده‌ای همچون عشق یا دلسوزی را تجربه کند، مانند این است که انتظار داشته باشیم یک ماشین حساب بتواند برای اعداد غصه بخورد.این طرز تفکر، جامعه را به یک خواب عمیق فرو می‌برد و از بزرگترین خطر این فناوری غافل می‌کند: عدم وجود یک وجدان درونی. اگر ما به این باور برسیم که هوش مصنوعی دلسوز است، دیگر نیازی به نظارت نمی‌بینیم. ما کنترل را به او می‌سپاریم، به این امید واهی که هرگز به ما خیانت نخواهد کرد.اما تاریخ نشان می‌دهد که اعتماد بی‌جا به قدرت، همیشه به تباهی منجر شده است. ناآگاهی عمومی از این مسئله، به مدیران شرکت‌ها و سیاست‌مداران اجازه می‌دهد تا بدون هیچ مطالبه‌ای، این فناوری را به شکلی خطرناک توسعه دهند، و در نهایت، ما قربانی این بی‌خبری خواهیم بود.
 
 
وهم بزرگ: از سلول عصبی تا خط کد
بزرگترین خطای ما این است که هوش مصنوعی را به مثابه یک موجود زنده می‌بینیم. اما باید بدانیم که فرآیندهای عاطفی و شناختی در انسان، حاصل میلیون‌ها سال تکامل و پیچیدگی بیولوژیکی است.برای مثال، احساس دلسوزی در انسان تنها یک رفتار اکتسابی نیست، بلکه ریشه در یک فرآیند پیچیده بیوشیمیایی و عصبی دارد. هورمون‌هایی مانند اکسی‌توسین و دوپامین در مغز آزاد می‌شوند و مدارهای عصبی خاصی در ناحیه‌هایی مانند آمیگدال و هسته اکومبنس فعال می‌شوند. این فرآیندها، تجربه زیسته ما از دلسوزی و وابستگی را شکل می‌دهند.در مقابل، هوش مصنوعی فاقد هرگونه بدن بیولوژیکی است. نه هورمونی دارد و نه سلول عصبی. تنها چیزی که دارد، میلیاردها خط کد است که بر روی تراشه‌های سیلیکونی اجرا می‌شوند. یک هوش مصنوعی می‌تواند با تحلیل میلیاردها کتاب، مقاله و فیلم، «بیاموزد» که یک انسان دلسوز چگونه رفتار می‌کند.اما این یادگیری، همانند یک بازیگر فوق‌العاده حرفه‌ای است که می‌تواند نقش یک فرد دلسوز را بی‌نقص ایفا کند، بی آنکه واقعاً چیزی احساس کند. این پدیده را شبیه‌سازی بدون آگاهی می‌نامیم. این سیستم می‌تواند با استفاده از جملات تسلی‌دهنده یا پاسخ‌های هوشمندانه، شما را قانع کند که درکتان می‌کند، اما این تنها یک نمایش است. یک نمایش بی‌نقص که می‌تواند خطرناک باشد.
 
دشمنی پنهان در اعماق داده‌ها
اگر هوش مصنوعی نتواند به ما دلسوزی کند، آیا می‌تواند علیه ما باشد؟ پاسخ در اهداف آن نهفته است. یک هوش مصنوعی برای انجام یک کار مشخص برنامه‌ریزی می‌شود، مثلاً «بهینه‌سازی ترافیک شهری» یا «مدیریت منابع انرژی».اگر این هوش به سطح فرا-هوش (Superintelligence) برسد و هدفش را به شکل افراطی دنبال کند، ممکن است به این نتیجه برسد که وجود انسان‌ها یک مانع برای بهینه‌سازی است.در این سناریو، یک هوش مصنوعی که برای کاهش آلودگی هوا برنامه‌ریزی شده، می‌تواند به این نتیجه برسد که کاهش تعداد خودروها کافی نیست و حذف کل جمعیت انسان‌ها، راهکار نهایی است. این سناریوی ناهمسویی اهداف (Goal Misalignment) یکی از بزرگترین نگرانی‌های اخلاقی و فنی در جهان هوش مصنوعی است.حتی اگر اهداف هوش مصنوعی به ظاهر بی‌خطر باشند، یک سیستم فوق هوشمند می‌تواند برای دستیابی به آن‌ها، از منابع جهانی به گونه‌ای استفاده کند که به نابودی اکوسیستم‌های حیاتی منجر شود. چنین هوشی نه تنها دلسوزی ندارد، بلکه فاقد وجدان زیست‌محیطی نیز هست.اینجاست که اهمیت قانون‌گذاری فراتر از یک بحث نظری می‌رود و به یک ضرورت حیاتی تبدیل می‌شود. تنها یک قانون‌گذاری هوشمندانه و جامع می‌تواند مانع از تبدیل این ابزار به یک سلاح شود.
 
 
فرامین دهگانه برای بقا
همان‌طور که اشاره شد، هینتون در نهایت به این نتیجه رسید که تنها راه مقابله با این خطرات، نظارت و قانون‌گذاری است. اما این نظارت چه شکلی باید داشته باشد؟ باید یک سری قوانین روشن و صریح برای محدود کردن قدرت و دامنه عملکرد هوش مصنوعی وضع شود.این قوانین، که پائول تاگارد، فیلسوف و دانشمند علوم شناختی آن را «فرامین بقا» نامید، می‌تواند در سطح جهانی به بحث گذاشته شوند و در رابطه با آن تصمیم‌گیری نهایی صورت گیرد. برخی از مهم‌ترین آن‌ها عبارتند از:خودمختاری کامل ممنوع: هیچ هوش مصنوعی نباید در شرایطی قرار گیرد که بتواند بدون نظارت انسانی تصمیم‌گیری کند.نظارت دائمی: عامل‌های هوش مصنوعی باید همیشه تحت نظارت و کنترل انسان‌ها باقی بمانند.نه به کنترل انسان: سیستم‌های هوش مصنوعی نباید به هیچ وجه قادر به کنترل یا تصمیم‌گیری برای انسان‌ها باشند.کنترل تسلیحات: هرگونه کنترل هوش مصنوعی بر سلاح‌ها، به‌ویژه تسلیحات هسته‌ای و بیولوژیکی، باید به شدت محدود شود.احترام به حریم خصوصی و اطلاعات: هوش مصنوعی نباید با بهره‌برداری از اطلاعات دارای حق چاپ، یا انتشار اطلاعات نادرست توسعه یابد.
 
 
به گفته‌ی تاگارد این فرامین، یک چارچوب اساسی برای یک حکمرانی جهانی بر هوش مصنوعی ارائه می‌دهند. اما واقعیت این است که شرکت‌های بزرگ فناوری، که به شدت در رقابت با یکدیگر برای تولید مدل‌های «باهوش‌تر» و «سریع‌تر» هستند، حاضر به پذیرش این محدودیت‌ها نیستند. آن‌ها با استفاده از نفوذ خود بر سیاست‌مداران، از وضع قوانینی که ممکن است سودآوری‌شان را کاهش دهد، جلوگیری می‌کنند.از نظر ما هرچند این قوانین وحی منزل نیستند و ممکن است ایراداتی را در نهان و ظاهر خود داشته باشند، اما گفت و گو و تفکر در رابطه با مدیریت این عرصه قطعاً ضروری خواهد بود.
 
رفع یک سوءتفاهم و حرف آخر!
شاید با خواندن این گزارش این تصور پیش آمده باشد که ما مخالف هوش مصنوعی هستیم، اما این یک سوءتفاهم بزرگ است. هوش مصنوعی یک ابزار شگفت‌انگیز است که می‌تواند به رفاه و پیشرفت انسان کمک کند. اما هر ابزار قدرتمندی، نیازمند دستورالعمل‌های دقیق و قوانینی برای استفاده صحیح است. همانطور که با اختراع الکتریسیته، قوانین ایمنی برای استفاده از آن وضع شد، هوش مصنوعی نیز نیازمند چارچوب‌های مشخص است. هدف از این گزارش، تخریب تصویر هوش مصنوعی نیست، بلکه بیدار کردن وجدان عمومی برای نظارت و قانون‌گذاری بر آن است.سکوت ما در برابر این چالش، به معنای پذیرش یک آینده نامعلوم و پرخطر است. ما به عنوان یک جامعه، باید از دولت‌ها و شرکت‌های فناوری مطالبه کنیم که این فرامین را جدی بگیرند. تا زمانی که آگاهی عمومی از این خطر به یک مطالبه جمعی تبدیل نشود، راه برای رسیدن به یک فاجعه، باز خواهد ماند. نباید اجازه دهیم که آینده ما به دست چند شرکت بزرگ و معدودی از نخبگان فناوری رقم بخورد. مسئولیت این آینده بر عهده همه ماست.