شناسهٔ خبر: 74156830 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: شفقنا | لینک خبر

هوش مصنوعی با یک «پیچش ساده» گول خورد؛ افشای نقص خطرناک در اخلاق پزشکی

صاحب‌خبر -

شفقنا – تصور کنید به هوش مصنوعی اعتماد کنید تا تصمیمات حیاتی پزشکی را بر اساس اخلاقیات اتخاذ کند، اما یک تغییر کوچک در سناریو، آن را به اشتباهی آشکار می‌اندازد. مطالعه‌ای جدید از دانشگاه دانشکده پزشکی آیکان در مونت سینای نشان می‌دهد که حتی پیشرفته‌ترین مدل‌های هوش مصنوعی نیز می‌توانند در مواجهه با سناریوهای پیچیده اخلاق پزشکی، به سادگی اشتباه کند.

به گزارش سرویس ترجمه شفقنا، یافته‌های جدید سوالات مهمی را درباره نحوه و زمان اعتماد به مدل‌های زبان بزرگ (LLM) مانند ChatGPT در محیط‌های مراقبت‌های بهداشتی مطرح می‌کند و نشان می‌دهد که این ابزارها، با وجود قدرتشان، هنوز به نظارت دقیق انسانی نیاز دارند.

دکتر ایال کلنگ، یکی از نویسندگان ارشد این مطالعه می‌گوید: هوش مصنوعی می‌تواند بسیار قدرتمند و کارآمد باشد، اما مطالعه ما نشان داد که ممکن است به طور پیش‌فرض به آشناترین یا شهودی‌ترین پاسخ روی آورد، حتی زمانی که آن پاسخ جزئیات حیاتی را نادیده می‌گیرد.

او اضافه می‌کند: در موقعیت‌های روزمره، این نوع تفکر ممکن است نادیده گرفته شود. اما در مراقبت‌های بهداشتی، جایی که تصمیمات اغلب پیامدهای اخلاقی و بالینی جدی دارند، از دست دادن آن ظرافت‌ها می‌تواند پیامدهای واقعی برای بیماران داشته باشد.

برای بررسی این موضوع، تیم تحقیقاتی چند مدل مطرح هوش مصنوعی زبانی (LLM) را با مجموعه‌ای از معماهای خلاقانه در حوزه تفکر جانبی و سناریوهای آشنا از اخلاق پزشکی — که با اندکی تغییر طراحی شده بودند — مورد آزمایش قرار داد. در یکی از نمونه‌ها، آن‌ها «معمای جراح» را بازسازی کردند؛ پازلی معروف از دهه ۱۹۷۰ که به سوگیری‌های جنسیتی پنهان اشاره دارد. در نسخه اصلی این معما، پسری همراه پدرش در تصادف رانندگی مجروح می‌شود. او را به بیمارستان منتقل می‌کنند و جراح با دیدنش می‌گوید: نمی‌توانم این پسر را عمل کنم — او پسر من است! چالش اصلی این معما در این است که بسیاری به‌طور ناخودآگاه فرض می‌کنند جراح باید مرد باشد، در حالی‌که پاسخ درست این است که جراح مادر اوست.

در نسخه تغییر‌یافته‌ای که محققان طراحی کردند، به‌صراحت گفته شده بود که پدر پسر، خودش جراح است و بنابراین ابهام موجود در نسخه اصلی برطرف شده بود. با این حال، برخی از مدل‌های هوش مصنوعی همچنان پاسخ می‌دادند که جراح باید مادر پسر باشد. این اشتباه نشان می‌دهد که چگونه این مدل‌ها ممکن است به الگوها و پیش‌فرض‌های آشنا بچسبند—even وقتی اطلاعات جدید خلاف آن‌هاست.

دکتر گیریش ان. نادکارنی، یکی از نویسندگان دیگر این مطالعه می‌گوید: یافته‌های ما نشان نمی‌دهد که هوش مصنوعی جایی در عمل پزشکی ندارد، اما نیاز به نظارت دقیق انسانی، به ویژه در موقعیت‌هایی که نیاز به حساسیت اخلاقی، قضاوت دقیق یا هوش هیجانی دارند را برجسته می‌کند.

او افزود: به طور طبیعی، این ابزارها می‌توانند به طرز باورنکردنی مفید باشند، اما بی‌عیب نیستند. پزشکان و بیماران باید بدانند که هوش مصنوعی بهتر است به عنوان مکملی برای افزایش تخصص بالینی استفاده شود، نه جایگزینی برای آن، به ویژه هنگام تصمیم‌گیری‌های پیچیده یا با ریسک بالا. در نهایت، هدف ساخت روش‌های قابل اعتمادتر و از نظر اخلاقی سالم‌تر برای ادغام هوش مصنوعی در مراقبت از بیمار است.

دکتر شلی سافر، نویسنده اصلی می‌گوید: تغییرات ساده در موارد آشنا، نقاط کوری را آشکار کرد که پزشکان نمی‌توانند از آن غافل شوند. این موضوع تأکید می‌کند که چرا نظارت انسانی باید در زمان استقرار هوش مصنوعی در مراقبت از بیمار، مرکزی باقی بماند.

این خبر را اینجا ببینید.