شفقنا – تصور کنید به هوش مصنوعی اعتماد کنید تا تصمیمات حیاتی پزشکی را بر اساس اخلاقیات اتخاذ کند، اما یک تغییر کوچک در سناریو، آن را به اشتباهی آشکار میاندازد. مطالعهای جدید از دانشگاه دانشکده پزشکی آیکان در مونت سینای نشان میدهد که حتی پیشرفتهترین مدلهای هوش مصنوعی نیز میتوانند در مواجهه با سناریوهای پیچیده اخلاق پزشکی، به سادگی اشتباه کند.
به گزارش سرویس ترجمه شفقنا، یافتههای جدید سوالات مهمی را درباره نحوه و زمان اعتماد به مدلهای زبان بزرگ (LLM) مانند ChatGPT در محیطهای مراقبتهای بهداشتی مطرح میکند و نشان میدهد که این ابزارها، با وجود قدرتشان، هنوز به نظارت دقیق انسانی نیاز دارند.
دکتر ایال کلنگ، یکی از نویسندگان ارشد این مطالعه میگوید: هوش مصنوعی میتواند بسیار قدرتمند و کارآمد باشد، اما مطالعه ما نشان داد که ممکن است به طور پیشفرض به آشناترین یا شهودیترین پاسخ روی آورد، حتی زمانی که آن پاسخ جزئیات حیاتی را نادیده میگیرد.
او اضافه میکند: در موقعیتهای روزمره، این نوع تفکر ممکن است نادیده گرفته شود. اما در مراقبتهای بهداشتی، جایی که تصمیمات اغلب پیامدهای اخلاقی و بالینی جدی دارند، از دست دادن آن ظرافتها میتواند پیامدهای واقعی برای بیماران داشته باشد.
برای بررسی این موضوع، تیم تحقیقاتی چند مدل مطرح هوش مصنوعی زبانی (LLM) را با مجموعهای از معماهای خلاقانه در حوزه تفکر جانبی و سناریوهای آشنا از اخلاق پزشکی — که با اندکی تغییر طراحی شده بودند — مورد آزمایش قرار داد. در یکی از نمونهها، آنها «معمای جراح» را بازسازی کردند؛ پازلی معروف از دهه ۱۹۷۰ که به سوگیریهای جنسیتی پنهان اشاره دارد. در نسخه اصلی این معما، پسری همراه پدرش در تصادف رانندگی مجروح میشود. او را به بیمارستان منتقل میکنند و جراح با دیدنش میگوید: نمیتوانم این پسر را عمل کنم — او پسر من است! چالش اصلی این معما در این است که بسیاری بهطور ناخودآگاه فرض میکنند جراح باید مرد باشد، در حالیکه پاسخ درست این است که جراح مادر اوست.
در نسخه تغییریافتهای که محققان طراحی کردند، بهصراحت گفته شده بود که پدر پسر، خودش جراح است و بنابراین ابهام موجود در نسخه اصلی برطرف شده بود. با این حال، برخی از مدلهای هوش مصنوعی همچنان پاسخ میدادند که جراح باید مادر پسر باشد. این اشتباه نشان میدهد که چگونه این مدلها ممکن است به الگوها و پیشفرضهای آشنا بچسبند—even وقتی اطلاعات جدید خلاف آنهاست.
دکتر گیریش ان. نادکارنی، یکی از نویسندگان دیگر این مطالعه میگوید: یافتههای ما نشان نمیدهد که هوش مصنوعی جایی در عمل پزشکی ندارد، اما نیاز به نظارت دقیق انسانی، به ویژه در موقعیتهایی که نیاز به حساسیت اخلاقی، قضاوت دقیق یا هوش هیجانی دارند را برجسته میکند.
او افزود: به طور طبیعی، این ابزارها میتوانند به طرز باورنکردنی مفید باشند، اما بیعیب نیستند. پزشکان و بیماران باید بدانند که هوش مصنوعی بهتر است به عنوان مکملی برای افزایش تخصص بالینی استفاده شود، نه جایگزینی برای آن، به ویژه هنگام تصمیمگیریهای پیچیده یا با ریسک بالا. در نهایت، هدف ساخت روشهای قابل اعتمادتر و از نظر اخلاقی سالمتر برای ادغام هوش مصنوعی در مراقبت از بیمار است.
دکتر شلی سافر، نویسنده اصلی میگوید: تغییرات ساده در موارد آشنا، نقاط کوری را آشکار کرد که پزشکان نمیتوانند از آن غافل شوند. این موضوع تأکید میکند که چرا نظارت انسانی باید در زمان استقرار هوش مصنوعی در مراقبت از بیمار، مرکزی باقی بماند.
این خبر را اینجا ببینید.