وی در ابتدای این گفتوگو به خبرنگار آناتک میگوید: گسترش سریع و اغواگرای هوش مصنوعی در حال دگرگونی عرصههای تخصصی است. با این حال، ردپای فزایندهای از ارزیابیهای اشتباه، غیرمنطقی و گاه فاجعهبار در سایه تکیه بیقید و شرط اساتید و متخصصان به این فناوری بدون نظارت دقیق انسانی مشاهده میشود.
این کارشناس فضای مجازی اضافه میکند: اگر هوش مصنوعی را به جای «ابزار» به عنوان «تحلیلگر نهایی» بپذیریم، نه تنها اعتبار علمی را به خطر میاندازیم، بلکه بنیانهای تصمیمگیری در حوزههای حساسی، چون پزشکی، حقوق و مهندسی را تضعیف خواهیم کرد.
طلوع عصر جدید و یک هشدار قدیمی
او تصریح میکند: در یکی از آزمایشگاههای پیشرفته پزشکی یک بیمارستان معتبر، گروهی از پژوهشگران بر روی دادههای پیچیده ژنومی کار میکنند. هوش مصنوعی قدرتمند آنها، الگویی را شناسایی میکند که نشان میدهد یک داروی خاص میتواند درمانی برای یک بیماری نادر باشد. استاد راهنمای پروژه، تحت تأثیر سرعت و ظاهر علمی تحلیلی هوش مصنوعی، ارزیابی آن را بدون بازبینی عمیق تأیید میکند. این یافته قرار است در مجلهای معتبر منتشر شود. اما یک دانشجوی دکترای تیزبین، با شهود انسانی خود، احساس میکند چیزی درست نیست. او با صرف وقت فراوان، کشف میکند که هوش مصنوعی، به دلیل یک «سوگیری» در دادههای آموزشی، ارتباطی تصنعی و اشتباه را تشخیص داده است. پذیرش کورکورانه آن تحلیل، میتوانست به یک شکست درمانی و هدررفت میلیونها دلار منابع منجر شود.
شیخ الاسلام در ادامه بیان کرد: این داستان، یک سناریوی فرضی محض نیست؛ نمونههای عینی آن، هرچند هنوز به طور گسترده منتشر نشدهاند، در حال رخ دادن در دانشگاهها، مراکز پژوهشی و شرکتهای مختلف هستند. ما در آستانه یک چالش بزرگ قرار داریم: «سیطره خاموش هوش مصنوعی بر ارزیابیهای تخصصی». این پدیده، هنگامی رخ میدهد که دقت، اعتبار و قابلیت اطمینان هوش مصنوعی، بهصورت پیشفرض و بدون مکانیزمهای بازدارنده قوی، پذیرفته میشود. نتیجه این است که خروجیهای غیرمنطقی، توأم با خطا و گاه خطرناک، از فیلتر نقد انسانی عبور کرده و به عنوان «حقیقت علمی» عرضه میشوند.
وی با اشاره به اینکه قصدی برای نفی هوش مصنوعی به عنوان یک مخلوق قدرتمند دست بشر ندارد، اضافه کرد: هوش مصنوعی یک ابزار استثنایی است، اما یک تحلیلگر و ارزیاب نهایی مستقل و بیطرف نیست. غفلت از این تمایز بنیادین، ما را به ورطهای میاندازد که در آن، «کارایی» جایگزین «حکمت» میشود.
هوش مصنوعی چگونه وارد عرصه ارزیابی شد؟
او در ادامه تصریح کرد: در دنیای پرشتاب امروز، فشار برای انتشار مقاله، ثبت اختراع، ارائه تشخیص سریع و تصمیمگیریهای اقتصادی، بیسابقه است. هوش مصنوعی میتواند در کسری از ثانیه، هزاران مقاله علمی را مرور، دادههای عظیم را پردازش و الگوهایی را شناسایی کند که از دید انسان پنهان میماند. این سرعت و قدرت، برای هر متخصصی جذاب و اغواکننده است. اساتیدی که زیر بار حجم انبوه پایاننامهها و طرحهای پژوهشی هستند، بهراحتی میتوانند به ارزیابی اولیه یک هوش مصنوعی برای بررسی تشابه متنی، تحلیل آماری یا حتی کیفیت کلی یک کار تکیه کنند.
این پژوهشگر فضای مجازی تأکید کرد: پیچیدگی فزاینده مسائل، مسئلۀ بعدی است، بسیاری از چالشهای امروز (از تغییرات اقلیمی تا طراحی داروهای شخصی) چنان پیچیده هستند که مغز انسان به تنهایی قادر به درک تمام ابعاد آنها نیست. هوش مصنوعی به عنوان یک «دستیار فراشناختی» عمل میکند تا این پیچیدگی را مدیریت کند. این نیاز مشروع، به تدریج مرز بین «دستیاری» و «جانشینی» را محو کرده است.
شیخالاسلامی جذابیت فریبنده «عینیت» را موضوع دیگر بشر امروز برشمرد و خاطرنشان کرد: یکی از بزرگترین دلایل گرایش به هوش مصنوعی، تصور «عینیت محض» آن است. فرض بر این است که هوش مصنوعی فاقد احساسات، تعصبات شخصی و خستگی است و بنابراین، قضاوتی بیطرفانه ارائه میدهد. این یک توهم خطرناک است. هوش مصنوعی «عینی» نیست؛ بلکه بازتابی از دادههایی است که روی آن آموزش دیده است. اگر این دادهها دارای سوگیری باشند (که اغلب هستند)، خروجی هوش مصنوعی نیز به شکلی سیستماتیک و به ظاهر «عینی»، سوگیرانه خواهد بود.
وی فشار رقابتی و ترس از عقب ماندن را چالش دیگر انسانها در مواجهه با این مسئله بر میشمارد و اضافه میکند: در فضای آکادمیک و صنعتی، نوعی «تب هوش مصنوعی» به وجود آمده است. استفاده نکردن از این فناوری، گاهی به معنای عقب ماندن از قافله علم تفسیر میشود. این فشار، متخصصان را وامیدارد تا حتی بدون درک کامل محدودیتهای آن، از هوش مصنوعی در کارهای خود استفاده کنند.
چرا تکیه صرف به هوش مصنوعی منجر به ارزیابیهای اشتباه میشود؟
او در ادامه تصریح کرد: بسیاری از مدلهای پیشرفته هوش مصنوعی (مانند شبکههای عصبی عمیق) ذاتاً «جعبه سیاه» هستند. ما ورودی و خروجی را میبینیم، اما فرآیند استدلال و دلیلآوری درون مدل، برای انسان غیرقابل درک است. یک متخصص چگونه میتواند ارزیابی یک سیستم جعبه سیاه را بدون فهم منطق آن بپذیرد؟ این مانند پذیرش رأی یک قاضی بدون شنیدن استدلالهای او است. وقتی یک هوش مصنوعی یک مقاله را «ضعیف» ارزیابی میکند، آیا میتواند دقیقاً اشاره کند که کدام بخش از استدلال منطقی ضعف دارد؟ یا صرفاً بر اساس الگوهای آماری کلمات قضاوت میکند؟
این کارشناس فضای مجازی در ادامه تأکید کرد: هوشهای مصنوعی متنی در تولید متن روان و به ظاهر آگاهانه استاد هستند. اما این متن بر پایه «درک» واقعی مفاهیم انسانی مانند علت و معلول، طنز، کنایه یا زمینه اجتماعی تولید نمیشود، بلکه بر اساس پیشبینی آماری کلمه بعدی است. بنابراین، ممکن است متنی قانعکننده درباره یک تئوری فیزیکی تولید کند که از نظر علمی کاملاً اشتباه است، اما به دلیل ساختار گرامری صحیح و استفاده از اصطلاحات تخصصی، یک استاد بیدقت را فریب دهد.
سوگیری دادههای آموزشی؛ آینه تمامنمای نقاط کور بشری
به گفتۀ وی هوش مصنوعی بر روی دادههای تولیدشده توسط انسان آموزش میبیند. اگر این دادهها حاوی تعصبات نژادی، جنسیتی، فرهنگی یا علمی باشند، هوش مصنوعی این سوگیریها را یاد گرفته و تقویت میکند. مثال معروف آن، سیستمهای هوش مصنوعی استخدام بود که به دلیل آموزش دیدن بر روی رزومههای مردان، علیه زنان تبعیض قائل میشد. در ارزیابی علمی، یک هوش مصنوعی ممکن است به طور ناخودآگاه به مقالات نویسندگان از یک ملیت یا مکتب فکری خاص، امتیاز بالاتری بدهد یا ایدههای نوآورانه و خارج از جریان اصلی را نادیده بگیرد. این امر «گروهاندیشی» (Groupthink) را در علم نهادینه میکند.
شیخ الاسلامی همچنین در بخش دیگری از این گفتگو بیان کرد: شهود انسانی، حاصل سالها تجربه، تعامل اجتماعی، شکست و موفقیت در دنیای واقعی است. یک استاد مجرب میتواند «حس کند» که یک نتیجهگیری، با وجود صحت ظاهری دادهها، «درست به نظر نمیرسد». این «حس کردن» ناشی از درک ناخودآگاه از پیچیدگیهای جهان است. هوش مصنوعی فاقد این نوع از خرد است. او نمیتواند زمینههای فرهنگی، اخلاقی یا عاطفی یک مسئله را درک کند. برای مثال، در ارزیابی یک طرح پژوهشی در حوزه علوم انسانی، هوش مصنوعی ممکن است نتواند حساسیتهای اخلاقی یک تحقیق میدانی را تشخیص دهد.
وی در ادامه آسیبپذیری در برابر «حمله ورودیهای متخاصم» چالش بعدی برشمرد و اضافه کرد: هوشهای مصنوعی در برابر دستکاریهای کوچک و هوشمندانه در دادههای ورودی بسیار آسیبپذیر هستند. تغییر چند پیکسل در یک تصویر میتواند یک مدل طبقهبندی تصویر را فریب دهد تا یک گربه را به عنوان یک هواپیما تشخیص دهد. در حوزه متون، میتوان با افزودن جملات خاصی که برای انسان بیمعنی هستند، یک هوش مصنوعی ارزیاب را فریب داد تا یک مقاله بیمحتوا را به عنوان یک اثر درخشان ارزیابی کند. یک متخصص انسانی به راحتی این فریب را تشخیص میدهد، اما هوش مصنوعی ممکن است گمراه شود.
وقتی خطاهای هوش مصنوعی نهادینه میشود
او فرسایش اعتماد عمومی به علم و تخصص را یکی از پیامدهای وضعیت فعلی بر میشمارد و تصریح میکند: علم مدرن بر پایه اعتماد بنا شده است. مردم به پزشکان، مهندسان و دانشمندان اعتماد میکنند. اگر افشا شود که تشخیصهای پزشکی یا ارزیابیهای ایمنی یک پل، توسط یک الگوریتم غیرقابل توضیح و مستعد خطا انجام شده و تنها با یک مهر تأیید انسانی همراه بوده است، این اعتماد عمیقاً خدشهدار خواهد شد. هر شکست، به قیمت از دست رفتن اعتبار کل نهاد علمی تمام میشود.
خفه کردن نوآوری و تفکر نقاد از نظر این دانشآموختۀ آیندهپژوهی دیگر نتیجۀ وضعیت فعلی است، وی در ادامۀ مباحث خود تأکید کرد: هوش مصنوعی تمایل دارد آنچه را که شبیه به گذشته است، تأیید کند. اگر ارزیابی مقالات و پروپوزالها به طور گسترده به هوش مصنوعی سپرده شود، ایدههای انقلابی و خارج از چارچوب که در دادههای تاریخی نمونه مشابهی ندارند، رد خواهند شد. آلبرت انیشتین اگر امروز با نظریه نسبیت خود پیش میآمد، ممکن بود مقالهاش توسط یک هوش مصنوعی به دلیل «عدم تطابق با فیزیک نیوتنی شناخته شده» رد شود. این امر، علم را به سمت بهبودهای تدریجی سوق داده و جرقههای نوآوری بنیادین را خاموش میکند.
مسئولیت حقوقی و اخلاقی؛ کی پاسخگو است؟
این کارشناس فضای مجازی در ادامه خاطرنشان کرد: وقتی یک ارزیابی هوش مصنوعی منجر به فاجعه میشود (مثلاً تشخیص اشتباه یک بیماری نادر یا محاسبه نادرست استحکام یک سازه) مسئولیت آن با کیست؟ با برنامهنویس؟ با شرکتی که مدل را ساخته؟ با استادی که بدون بررسی کافی آن را تأیید کرده است؟ یا با خود هوش مصنوعی؟ این یک خاکستری حقوقی و اخلاقی عظیم است. در حال حاضر، پاسخ روشنی وجود ندارد و این خود یک خطر بزرگ محسوب میشود.
به اعتقاد او ایجاد یک «طبقۀ جدید بیسواد دیجیتال» نتیجۀ ناخواستۀ و غیرمطلوب وضعیت فعلی است، این پژوهشگر فضای مجازی در ادامه گفت: متخصصانی که بدون درک عمیق از مکانیزمهای هوش مصنوعی، خروجی آن را میپذیرند، به تدریج مهارتهای تحلیلی و انتقادی خود را از دست میدهند. آنان به کاربران منفعل یک تکنولوژی تبدیل میشوند که توانایی questioning (پرسشگری) از آن را ندارند. این امر در درازمدت، یک شکاف competence (شایستگی) بین خالقان هوش مصنوعی و مصرفکنندگان آن ایجاد میکند و استقلال فکری متخصصان را تهدید مورد تهدید قرار میدهد.
چگونه میتوان این چالش را مدیریت کرد؟
شیخ الاسلامی در ادامه بیان میکند: خبر امیدوارکننده این است که این سناریو، اجتنابناپذیر نیست. با تدبیر و برنامهریزی میتوان از هوش مصنوعی بهره برد بدون آنکه قربانی آن شد.
وی تغییر پارادایم آموزشی و پرورش «ناقدان هوش مصنوعی» به جای «کاربران هوش مصنوعی» را یکی از راهکارهای موجود بر میشمارد و اضافه میکند: نظامهای آموزشی (از دانشگاه تا دورههای بازآموزی حرفهای) باید به سرعت محتوای خود را به روز کنند. هدف نباید صرفاً آموزش نحوه استفاده از ابزارهای هوش مصنوعی باشد، بلکه باید «سواد انتقادی هوش مصنوعی» را آموزش داد. این شامل موارد زیر است:
ـ درک مفاهیم پایهای مانند سوگیری داده، مسئله جعبه سیاه و حملههای متخاصم.
ـ آموزش روشهای شناسایی خطاها و محدودیتهای خروجی هوش مصنوعی.
ـ تقویت این ذهنیت که هوش مصنوعی یک «نظر دوم» (Second Opinion) است، نه نظر نهایی.
این کارشناس فضای مجازی در ادامه بیان میکند: توسعه و ترویج چارچوبهای «همکاری انسان و هوش مصنوعی» مسیر دیگر اصلاح وضعیت فعلی است، به جای جایگزینی، باید بر روی «تکامل» تمرکز کرد. یک چارچوب استاندارد برای همکاری میتواند به این شکل باشد:
ـ مرحله ۱: ایدهپردازی و کاوش اولیه توسط هوش مصنوعی. (جمعآوری اطلاعات، ارائه پیشنهادات).
ـ مرحله ۲: تحلیل، تصفیه و زمینهسازی توسط انسان. (متخصص انسانی، خروجی هوش مصنوعی را در چارچوب دانش، تجربه و اخلاق خود قرار میدهد).
ـ مرحله ۳: شبیهسازی و آزمون توسط هوش مصنوعی. (انسان از هوش مصنوعی میخواهد ایده تصفیهشده را در سناریوهای مختلف تست کند).
ـ مرحله ۴: قضاوت، تصمیمگیری و مسئولیتپذیری نهایی توسط انسان.
او شفافیت اجباری و استانداردسازی را راهکار دیگر موجود بر میشمارد و تأکید میکند: مجلات علمی، نهادهای اعطای مجوز (accrediting) و سازمانهای حرفهای باید سیاستهای شفافی را در مورد استفاده از هوش مصنوعی وضع کنند. این سیاستها میتوانند شامل موارد زیر باشند:
ـ اعلام الزام استفاده از هوش مصنوعی در بخش «روششناسی» مقالات، این باعث میشود تا از روشهای جدید و یا ترکیبی در تحلیل مقالات استفاده شود.
ـ ارائه توضیح از سوی نویسنده یا داور درباره چگونگی استفاده از هوش مصنوعی و اقدامات نظارتی انجامشده است.
ـ توسعه استانداردهای ارزیابی و نظارتی برای مدلهای هوش مصنوعی که در حوزههای حساس (پزشکی، حقوقی) استفاده میشوند.
این پژوهشگر فضای مجازی تقویت نقش «شهود انسانی» به عنوان یک دارایی ارزشمند را راهکار دیگر میداند و خاطرنشان میکند: به جای نادیده گرفتن شهود به عنوان یک امر «غیرعلمی»، باید آن را به عنوان یک مهارت تکمیلی حیاتی به رسمیت شناخت. جلسات بحث و گفتوگو، مطالعات موردی و تحلیل شکستها، میتوانند در پرورش این شهود در نسل جدید متخصصان مؤثر باشند.
شیخ الاسلامی در ادامه بیان میکند: بخشی از راه حل، فنی است. جامعه پژوهشی باید تلاشهای خود را بر روی توسعه مدلهای هوش مصنوعی متمرکز کند که نه تنها دقیق، بلکه قابل تفسیر هستند. مدلهایی که میتوانند به سؤال «چرا این تصمیم را گرفتی؟» پاسخی قابل درک برای انسان بدهند.
بازپسگیری عرصه قضاوت
این پژوهشگر فضای سایبر در ادامه تصریح کرد: هوش مصنوعی یکی از قدرتمندترین ابزارهایی است که بشر تا به حال ساخته است. اما مانند هر ابزار قدرتمند دیگری (از آتش تا انرژی اتمی) کنترل و مهار آن نیازمند خرد، توان علمی و نظارت مستمر است. آنچه امروز شاهد آنیم، یک «سیطره» خزنده است؛ به دلیل سهلانگاری، کمحوصلگی و اغوا شدن توسط کارایی کاذب ما انسانها. متخصصان و اساتید، به عنوان نگهبانان عرصه دانش و خرد، مسئولیتی سنگین بر عهده دارند. آنان باید پیشگام این تغییر نگرش باشند. باید به دانشجویان و همکاران خود بیاموزند که بهترین استفاده از هوش مصنوعی، زمانی است که در خدمت تقویت قضاوت انسانی باشد.
شیخ الاسلامی در پایان گفت: هوش مصنوعی در تحلیل نهایی، فاقد شعور، وجدان و آن «چیز»ی است که ما را انسان میکند. اگر ما این «چیز» (این توانایی قضاوت مبتنی بر تجربه، اخلاق و درک عمیق) را به ماشین واگذار کنیم، در حقیقت، انسانیت خود را به حراج گذاشتهایم. بیایید هوش مصنوعی را در جایگاه واقعی خود ببینیم: یک دستیار نابغه، اما فاقد حکمت؛ و بیایید به خاطر بسپاریم که در نهایت، این «حکمت» است که سکان هدایت تمدن را در دست دارد، نه صرف «هوش» و نباید همه چیز را به آن گره زد.
انتهای پیام/