شناسهٔ خبر: 76090941 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

یک متخصص هوش مصنوعی در گفت‌وگو با آناتک:

هوش مصنوعی یک ارزیاب مستقل و بی‌طرف نیست

یک پژوهشگر فضای سایبر می‌گوید هوش مصنوعی نباید به عنوان داور نهایی در ارزیابی‌های تخصصی پذیرفته شود؛ به گفتۀ سیّدجواد شیخ‌الاسلامی هوش مصنوعی، برخلاف تصور رایج، نه مستقل است و نه بی‌طرف؛ بلکه بازتابی از داده‌های سوگیرانه‌ای‌ست که سازندگانش به مدل آموخته‌اند. از طرفی واگذاری قضاوت علمی به الگوریتم‌ها، اعتبار نهادهای تخصصی را در معرض فرسایش جدی قرار می‌دهد.

صاحب‌خبر -

وی در ابتدای این گفت‌وگو به خبرنگار آناتک می‌گوید: گسترش سریع و اغواگرای هوش مصنوعی در حال دگرگونی عرصه‌های تخصصی است. با این حال، ردپای فزاینده‌ای از ارزیابی‌های اشتباه، غیرمنطقی و گاه فاجعه‌بار در سایه تکیه بی‌قید و شرط اساتید و متخصصان به این فناوری بدون نظارت دقیق انسانی مشاهده می‌شود. 

این کارشناس فضای مجازی اضافه می‌کند: اگر هوش مصنوعی را به جای «ابزار» به عنوان «تحلیل‌گر نهایی» بپذیریم، نه تنها اعتبار علمی را به خطر می‌اندازیم، بلکه بنیان‌های تصمیم‌گیری در حوزه‌های حساسی، چون پزشکی، حقوق و مهندسی را تضعیف خواهیم کرد.

طلوع عصر جدید و یک هشدار قدیمی

او تصریح می‌کند: در یکی از آزمایشگاه‌های پیشرفته پزشکی یک بیمارستان معتبر، گروهی از پژوهشگران بر روی داده‌های پیچیده ژنومی کار می‌کنند. هوش مصنوعی قدرتمند آن‌ها، الگویی را شناسایی می‌کند که نشان می‌دهد یک داروی خاص می‌تواند درمانی برای یک بیماری نادر باشد. استاد راهنمای پروژه، تحت تأثیر سرعت و ظاهر علمی تحلیلی هوش مصنوعی، ارزیابی آن را بدون بازبینی عمیق تأیید می‌کند. این یافته قرار است در مجله‌ای معتبر منتشر شود. اما یک دانشجوی دکترای تیزبین، با شهود انسانی خود، احساس می‌کند چیزی درست نیست. او با صرف وقت فراوان، کشف می‌کند که هوش مصنوعی، به دلیل یک «سوگیری» در داده‌های آموزشی، ارتباطی تصنعی و اشتباه را تشخیص داده است. پذیرش کورکورانه آن تحلیل، می‌توانست به یک شکست درمانی و هدررفت میلیون‌ها دلار منابع منجر شود.

شیخ الاسلام در ادامه بیان کرد: این داستان، یک سناریوی فرضی محض نیست؛ نمونه‌های عینی آن، هرچند هنوز به طور گسترده منتشر نشده‌اند، در حال رخ دادن در دانشگاه‌ها، مراکز پژوهشی و شرکت‌های مختلف هستند. ما در آستانه یک چالش بزرگ قرار داریم: «سیطره خاموش هوش مصنوعی بر ارزیابی‌های تخصصی». این پدیده، هنگامی رخ می‌دهد که دقت، اعتبار و قابلیت اطمینان هوش مصنوعی، به‌صورت پیش‌فرض و بدون مکانیزم‌های بازدارنده قوی، پذیرفته می‌شود. نتیجه این است که خروجی‌های غیرمنطقی، توأم با خطا و گاه خطرناک، از فیلتر نقد انسانی عبور کرده و به عنوان «حقیقت علمی» عرضه می‌شوند.

وی با اشاره به اینکه قصدی برای نفی هوش مصنوعی به عنوان یک مخلوق قدرتمند دست بشر ندارد، اضافه کرد: هوش مصنوعی یک ابزار استثنایی است، اما یک تحلیل‌گر و ارزیاب نهایی مستقل و بی‌طرف نیست. غفلت از این تمایز بنیادین، ما را به ورطه‌ای می‌اندازد که در آن، «کارایی» جایگزین «حکمت» می‌شود.

هوش مصنوعی چگونه وارد عرصه ارزیابی شد؟

او در ادامه تصریح کرد: در دنیای پرشتاب امروز، فشار برای انتشار مقاله، ثبت اختراع، ارائه تشخیص سریع و تصمیم‌گیری‌های اقتصادی، بی‌سابقه است. هوش مصنوعی می‌تواند در کسری از ثانیه، هزاران مقاله علمی را مرور، داده‌های عظیم را پردازش و الگو‌هایی را شناسایی کند که از دید انسان پنهان می‌ماند. این سرعت و قدرت، برای هر متخصصی جذاب و اغواکننده است. اساتیدی که زیر بار حجم انبوه پایان‌نامه‌ها و طرح‌های پژوهشی هستند، به‌راحتی می‌توانند به ارزیابی اولیه یک هوش مصنوعی برای بررسی تشابه متنی، تحلیل آماری یا حتی کیفیت کلی یک کار تکیه کنند.

این پژوهشگر فضای مجازی تأکید کرد: پیچیدگی فزاینده مسائل، مسئلۀ بعدی است، بسیاری از چالش‌های امروز (از تغییرات اقلیمی تا طراحی دارو‌های شخصی) چنان پیچیده هستند که مغز انسان به تنهایی قادر به درک تمام ابعاد آنها نیست. هوش مصنوعی به عنوان یک «دستیار فراشناختی» عمل می‌کند تا این پیچیدگی را مدیریت کند. این نیاز مشروع، به تدریج مرز بین «دستیاری» و «جانشینی» را محو کرده است.

شیخ‌الاسلامی جذابیت فریبنده «عینیت» را موضوع دیگر بشر امروز برشمرد و خاطرنشان کرد: یکی از بزرگترین دلایل گرایش به هوش مصنوعی، تصور «عینیت محض» آن است. فرض بر این است که هوش مصنوعی فاقد احساسات، تعصبات شخصی و خستگی است و بنابراین، قضاوتی بی‌طرفانه ارائه می‌دهد. این یک توهم خطرناک است. هوش مصنوعی «عینی» نیست؛ بلکه بازتابی از داده‌هایی است که روی آن آموزش دیده است. اگر این داده‌ها دارای سوگیری باشند (که اغلب هستند)، خروجی هوش مصنوعی نیز به شکلی سیستماتیک و به ظاهر «عینی»، سوگیرانه خواهد بود.

وی فشار رقابتی و ترس از عقب ماندن را چالش دیگر انسان‌ها در مواجهه با این مسئله بر می‌شمارد و اضافه می‌کند: در فضای آکادمیک و صنعتی، نوعی «تب هوش مصنوعی» به وجود آمده است. استفاده نکردن از این فناوری، گاهی به معنای عقب ماندن از قافله علم تفسیر می‌شود. این فشار، متخصصان را وامی‌دارد تا حتی بدون درک کامل محدودیت‌های آن، از هوش مصنوعی در کار‌های خود استفاده کنند.

چرا تکیه صرف به هوش مصنوعی منجر به ارزیابی‌های اشتباه می‌شود؟

او در ادامه تصریح کرد: بسیاری از مدل‌های پیشرفته هوش مصنوعی (مانند شبکه‌های عصبی عمیق) ذاتاً «جعبه سیاه» هستند. ما ورودی و خروجی را می‌بینیم، اما فرآیند استدلال و دلیل‌آوری درون مدل، برای انسان غیرقابل درک است. یک متخصص چگونه می‌تواند ارزیابی یک سیستم جعبه سیاه را بدون فهم منطق آن بپذیرد؟ این مانند پذیرش رأی یک قاضی بدون شنیدن استدلال‌های او است. وقتی یک هوش مصنوعی یک مقاله را «ضعیف» ارزیابی می‌کند، آیا می‌تواند دقیقاً اشاره کند که کدام بخش از استدلال منطقی ضعف دارد؟ یا صرفاً بر اساس الگو‌های آماری کلمات قضاوت می‌کند؟

این کارشناس فضای مجازی در ادامه تأکید کرد: هوش‌های مصنوعی متنی در تولید متن روان و به ظاهر آگاهانه استاد هستند. اما این متن بر پایه «درک» واقعی مفاهیم انسانی مانند علت و معلول، طنز، کنایه یا زمینه اجتماعی تولید نمی‌شود، بلکه بر اساس پیش‌بینی آماری کلمه بعدی است. بنابراین، ممکن است متنی قانع‌کننده درباره یک تئوری فیزیکی تولید کند که از نظر علمی کاملاً اشتباه است، اما به دلیل ساختار گرامری صحیح و استفاده از اصطلاحات تخصصی، یک استاد بی‌دقت را فریب دهد.

سوگیری داده‌های آموزشی؛ آینه تمام‌نمای نقاط کور بشری

به گفتۀ وی هوش مصنوعی بر روی داده‌های تولیدشده توسط انسان آموزش می‌بیند. اگر این داده‌ها حاوی تعصبات نژادی، جنسیتی، فرهنگی یا علمی باشند، هوش مصنوعی این سوگیری‌ها را یاد گرفته و تقویت می‌کند. مثال معروف آن، سیستم‌های هوش مصنوعی استخدام بود که به دلیل آموزش دیدن بر روی رزومه‌های مردان، علیه زنان تبعیض قائل می‌شد. در ارزیابی علمی، یک هوش مصنوعی ممکن است به طور ناخودآگاه به مقالات نویسندگان از یک ملیت یا مکتب فکری خاص، امتیاز بالاتری بدهد یا ایده‌های نوآورانه و خارج از جریان اصلی را نادیده بگیرد. این امر «گروه‌اندیشی» (Groupthink) را در علم نهادینه می‌کند.

شیخ الاسلامی همچنین در بخش دیگری از این گفتگو بیان کرد: شهود انسانی، حاصل سال‌ها تجربه، تعامل اجتماعی، شکست و موفقیت در دنیای واقعی است. یک استاد مجرب می‌تواند «حس کند» که یک نتیجه‌گیری، با وجود صحت ظاهری داده‌ها، «درست به نظر نمی‌رسد». این «حس کردن» ناشی از درک ناخودآگاه از پیچیدگی‌های جهان است. هوش مصنوعی فاقد این نوع از خرد است. او نمی‌تواند زمینه‌های فرهنگی، اخلاقی یا عاطفی یک مسئله را درک کند. برای مثال، در ارزیابی یک طرح پژوهشی در حوزه علوم انسانی، هوش مصنوعی ممکن است نتواند حساسیت‌های اخلاقی یک تحقیق میدانی را تشخیص دهد.
وی در ادامه آسیب‌پذیری در برابر «حمله ورودی‌های متخاصم» چالش بعدی برشمرد و اضافه کرد: هوش‌های مصنوعی در برابر دستکاری‌های کوچک و هوشمندانه در داده‌های ورودی بسیار آسیب‌پذیر هستند. تغییر چند پیکسل در یک تصویر می‌تواند یک مدل طبقه‌بندی تصویر را فریب دهد تا یک گربه را به عنوان یک هواپیما تشخیص دهد. در حوزه متون، می‌توان با افزودن جملات خاصی که برای انسان بی‌معنی هستند، یک هوش مصنوعی ارزیاب را فریب داد تا یک مقاله بی‌محتوا را به عنوان یک اثر درخشان ارزیابی کند. یک متخصص انسانی به راحتی این فریب را تشخیص می‌دهد، اما هوش مصنوعی ممکن است گمراه شود.

وقتی خطا‌های هوش مصنوعی نهادینه می‌شود

او فرسایش اعتماد عمومی به علم و تخصص را یکی از پیامدهای وضعیت فعلی بر می‌شمارد و تصریح می‌کند: علم مدرن بر پایه اعتماد بنا شده است. مردم به پزشکان، مهندسان و دانشمندان اعتماد می‌کنند. اگر افشا شود که تشخیص‌های پزشکی یا ارزیابی‌های ایمنی یک پل، توسط یک الگوریتم غیرقابل توضیح و مستعد خطا انجام شده و تنها با یک مهر تأیید انسانی همراه بوده است، این اعتماد عمیقاً خدشه‌دار خواهد شد. هر شکست، به قیمت از دست رفتن اعتبار کل نهاد علمی تمام می‌شود.

خفه کردن نوآوری و تفکر نقاد از نظر این دانش‌آموختۀ آینده‌پژوهی دیگر نتیجۀ وضعیت فعلی است، وی در ادامۀ مباحث خود تأکید کرد: هوش مصنوعی تمایل دارد آنچه را که شبیه به گذشته است، تأیید کند. اگر ارزیابی مقالات و پروپوزال‌ها به طور گسترده به هوش مصنوعی سپرده شود، ایده‌های انقلابی و خارج از چارچوب که در داده‌های تاریخی نمونه مشابهی ندارند، رد خواهند شد. آلبرت انیشتین اگر امروز با نظریه نسبیت خود پیش می‌آمد، ممکن بود مقاله‌اش توسط یک هوش مصنوعی به دلیل «عدم تطابق با فیزیک نیوتنی شناخته شده» رد شود. این امر، علم را به سمت بهبود‌های تدریجی سوق داده و جرقه‌های نوآوری بنیادین را خاموش می‌کند.

مسئولیت حقوقی و اخلاقی؛ کی پاسخگو است؟

این کارشناس فضای مجازی در ادامه خاطرنشان کرد: وقتی یک ارزیابی هوش مصنوعی منجر به فاجعه می‌شود (مثلاً تشخیص اشتباه یک بیماری نادر یا محاسبه نادرست استحکام یک سازه) مسئولیت آن با کیست؟ با برنامه‌نویس؟ با شرکتی که مدل را ساخته؟ با استادی که بدون بررسی کافی آن را تأیید کرده است؟ یا با خود هوش مصنوعی؟ این یک خاکستری حقوقی و اخلاقی عظیم است. در حال حاضر، پاسخ روشنی وجود ندارد و این خود یک خطر بزرگ محسوب می‌شود.
به اعتقاد او ایجاد یک «طبقۀ جدید بی‌سواد دیجیتال» نتیجۀ ناخواستۀ و غیرمطلوب وضعیت فعلی است، این پژوهشگر فضای مجازی در ادامه گفت: متخصصانی که بدون درک عمیق از مکانیزم‌های هوش مصنوعی، خروجی آن را می‌پذیرند، به تدریج مهارت‌های تحلیلی و انتقادی خود را از دست می‌دهند. آنان به کاربران منفعل یک تکنولوژی تبدیل می‌شوند که توانایی questioning (پرسشگری) از آن را ندارند. این امر در درازمدت، یک شکاف competence (شایستگی) بین خالقان هوش مصنوعی و مصرف‌کنندگان آن ایجاد می‌کند و استقلال فکری متخصصان را تهدید مورد تهدید قرار می‌دهد.

چگونه می‌توان این چالش را مدیریت کرد؟

شیخ الاسلامی در ادامه بیان می‌کند: خبر امیدوارکننده این است که این سناریو، اجتناب‌ناپذیر نیست. با تدبیر و برنامه‌ریزی می‌توان از هوش مصنوعی بهره برد بدون آنکه قربانی آن شد.
وی تغییر پارادایم آموزشی و پرورش «ناقدان هوش مصنوعی» به جای «کاربران هوش مصنوعی» را یکی از راهکارهای موجود بر می‌شمارد و اضافه می‌کند: نظام‌های آموزشی (از دانشگاه تا دوره‌های بازآموزی حرفه‌ای) باید به سرعت محتوای خود را به روز کنند. هدف نباید صرفاً آموزش نحوه استفاده از ابزار‌های هوش مصنوعی باشد، بلکه باید «سواد انتقادی هوش مصنوعی» را آموزش داد. این شامل موارد زیر است:
ـ درک مفاهیم پایه‌ای مانند سوگیری داده، مسئله جعبه سیاه و حمله‌های متخاصم.
ـ آموزش روش‌های شناسایی خطا‌ها و محدودیت‌های خروجی هوش مصنوعی.
ـ تقویت این ذهنیت که هوش مصنوعی یک «نظر دوم» (Second Opinion) است، نه نظر نهایی.

این کارشناس فضای مجازی در ادامه بیان می‌کند: توسعه و ترویج چارچوب‌های «همکاری انسان و هوش مصنوعی» مسیر دیگر اصلاح وضعیت فعلی است، به جای جایگزینی، باید بر روی «تکامل» تمرکز کرد. یک چارچوب استاندارد برای همکاری می‌تواند به این شکل باشد:
ـ مرحله ۱: ایده‌پردازی و کاوش اولیه توسط هوش مصنوعی. (جمع‌آوری اطلاعات، ارائه پیشنهادات).
ـ مرحله ۲: تحلیل، تصفیه و زمینه‌سازی توسط انسان. (متخصص انسانی، خروجی هوش مصنوعی را در چارچوب دانش، تجربه و اخلاق خود قرار می‌دهد).
ـ مرحله ۳: شبیه‌سازی و آزمون توسط هوش مصنوعی. (انسان از هوش مصنوعی می‌خواهد ایده تصفیه‌شده را در سناریو‌های مختلف تست کند).
ـ مرحله ۴: قضاوت، تصمیم‌گیری و مسئولیت‌پذیری نهایی توسط انسان.
او شفافیت اجباری و استانداردسازی را راهکار دیگر موجود بر می‌شمارد و تأکید می‌کند: مجلات علمی، نهاد‌های اعطای مجوز (accrediting) و سازمان‌های حرفه‌ای باید سیاست‌های شفافی را در مورد استفاده از هوش مصنوعی وضع کنند. این سیاست‌ها می‌توانند شامل موارد زیر باشند:
ـ اعلام الزام استفاده از هوش مصنوعی در بخش «روش‌شناسی» مقالات، این باعث می‌شود تا از روش‌های جدید و یا ترکیبی در تحلیل مقالات استفاده شود.
ـ ارائه توضیح از سوی نویسنده یا داور درباره چگونگی استفاده از هوش مصنوعی و اقدامات نظارتی انجام‌شده است.
ـ توسعه استاندارد‌های ارزیابی و نظارتی برای مدل‌های هوش مصنوعی که در حوزه‌های حساس (پزشکی، حقوقی) استفاده می‌شوند.

این پژوهشگر فضای مجازی تقویت نقش «شهود انسانی» به عنوان یک دارایی ارزشمند را راهکار دیگر می‌داند و خاطرنشان می‌کند: به جای نادیده گرفتن شهود به عنوان یک امر «غیرعلمی»، باید آن را به عنوان یک مهارت تکمیلی حیاتی به رسمیت شناخت. جلسات بحث و گفت‌و‌گو، مطالعات موردی و تحلیل شکست‌ها، می‌توانند در پرورش این شهود در نسل جدید متخصصان مؤثر باشند.

شیخ الاسلامی در ادامه بیان می‌کند: بخشی از راه حل، فنی است. جامعه پژوهشی باید تلاش‌های خود را بر روی توسعه مدل‌های هوش مصنوعی متمرکز کند که نه تنها دقیق، بلکه قابل تفسیر هستند. مدل‌هایی که می‌توانند به سؤال «چرا این تصمیم را گرفتی؟» پاسخی قابل درک برای انسان بدهند.

بازپس‌گیری عرصه قضاوت

این پژوهشگر فضای سایبر در ادامه تصریح کرد: هوش مصنوعی یکی از قدرتمندترین ابزار‌هایی است که بشر تا به حال ساخته است. اما مانند هر ابزار قدرتمند دیگری (از آتش تا انرژی اتمی) کنترل و مهار آن نیازمند خرد، توان علمی و نظارت مستمر است. آنچه امروز شاهد آنیم، یک «سیطره» خزنده است؛ به دلیل سهل‌انگاری، کم‌حوصلگی و اغوا شدن توسط کارایی کاذب ما انسان‌ها. متخصصان و اساتید، به عنوان نگهبانان عرصه دانش و خرد، مسئولیتی سنگین بر عهده دارند. آنان باید پیشگام این تغییر نگرش باشند. باید به دانشجویان و همکاران خود بیاموزند که بهترین استفاده از هوش مصنوعی، زمانی است که در خدمت تقویت قضاوت انسانی باشد.

شیخ الاسلامی در پایان گفت: هوش مصنوعی در تحلیل نهایی، فاقد شعور، وجدان و آن «چیز»‌ی است که ما را انسان می‌کند. اگر ما این «چیز» (این توانایی قضاوت مبتنی بر تجربه، اخلاق و درک عمیق) را به ماشین واگذار کنیم، در حقیقت، انسانیت خود را به حراج گذاشته‌ایم. بیایید هوش مصنوعی را در جایگاه واقعی خود ببینیم: یک دستیار نابغه، اما فاقد حکمت؛ و بیایید به خاطر بسپاریم که در نهایت، این «حکمت» است که سکان هدایت تمدن را در دست دارد، نه صرف «هوش» و نباید همه چیز را به آن گره زد.

انتهای پیام/