شناسهٔ خبر: 74545382 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایسنا | لینک خبر

ما نقص‌های تفکر خود را به هوش مصنوعی منتقل کرده‌ایم!

آزمایش‌های انجام‌شده روی هوش مصنوعی نشان می‌دهند که نقص‌های تفکر انسانی در تصمیم‌گیری‌ سیستم‌های هوش مصنوعی نیز دیده می‌شوند.

صاحب‌خبر -

به گزارش ایسنا، یک استارت‌آپ فین‌تک چندی پیش یک آزمایش ساده انجام داد. این استارت‌آپ دو متقاضی یکسان را به مدل هوش مصنوعی تأیید وام خود ارجاع داد. در یکی از پرونده‌ها، متقاضی به عنوان فردی «با سابقه‌ اشتغال ثابت و دو وقفه‌ کوتاه» توصیف شده بود. در پرونده‌ دیگر، عبارت به صورت «چندین وقفه در اشتغال» تغییر کرده بود و همان حقایق را با چارچوب متفاوت ارائه می‌داد.

به نقل از فوربس، نتیجه آزمایش این بود که هوش مصنوعی یک وام را تأیید و دیگری را رد کرد. بنیانگذاران استارت‌آپ با این موضوع روبه‌رو شدند که هوش مصنوعی بی‌طرف نیست و درست مانند انسان‌ها به واژه‌ها واکنش نشان می‌دهد.

«آموس تورسکی»(Amos Tversky) و «دنیل کانمن»(Daniel Kahneman) اقتصاددانان رفتاری، دهه‌ها پیش نشان دادند که انسان‌ها ماشین‌حساب‌های منطقی نیستند. ما به میان‌برهایی به نام اکتشافات متکی هستیم که به ما کمک می‌کنند تا سریع تصمیم بگیریم، اما اغلب ما را گمراه می‌کنند. نکته نگران‌کننده این است که چون هوش مصنوعی براساس داده‌ها و تصمیم‌های ما ساخته‌ شده، همان نقص‌ها را دارد.

ما اغلب احتمال را براساس شباهت قضاوت می‌کنیم، نه منطق. براساس یک سناریوی کلاسیک مطرح‌شده توسط تورسکی و کانمن که به عنوان «مسئله لیندا»(Linda problem) شناخته می‌شود، مردم فرض می‌کنند «صندوق‌دار فمینیست بانک» محتمل‌تر از «صندوق‌دار بانک» است یا فرض می‌کنند افراد قدبلند باید بسکتبالیست‌های خوبی باشند؛ حتی اگر بیشتر مردم - از جمله افراد قدبلند - بسکتبال بازی نکنند.

هوش مصنوعی نیز از این دام مصون نیست. شرکت «آمازون» در یک مقطع زمانی، هوش مصنوعی بررسی رزومه را کنار گذاشت، زیرا همچنان کاندیداهای مرد را برای مشاغل کدنویسی ترجیح می‌داد. دلیل ترجیح این بود که آن برنامه هوش مصنوعی براساس داده‌های استخدام در سال‌های گذشته آموزش دیده بود و در گذشته، بیشتر مشاغل کدنویسی توسط مردان انجام می‌شدند. در یک مورد بدنام دیگر، یک سیستم هوش مصنوعی تشخیص تصویر، افراد سیاه‌پوست را «گوریل» نامید. این سیستم، تعصب را اختراع نکرده بود، بلکه آن را از پاسخ‌های انسانی جذب کرده بود.

این گزارش به موارد گوناگونی از نقص‌های مشابه در تفکر انسانی و هوش مصنوعی می‌پردازد.

۱. در دسترس بودن. آنچه به راحتی به خاطر سپرده می‌شود، محتمل‌تر از چیزی است که به نظر می‌رسد. وقتی مثال‌ها واضح و به‌یادماندنی هستند، ما خطرات را بیش از حد ارزیابی می‌کنیم.

پس از حادثه ۱۱ سپتامبر، بسیاری از آمریکایی‌ها به جای پرواز با هواپیما رانندگی کردند و خطر هواپیما را بیش از حد بزرگ جلوه دادند. وقتی حمله کوسه‌ها تیتر خبرها می‌شود، مردم از کوسه‌ها بیشتر از غرق شدن یا تصادفات رانندگی می‌ترسند که از نظر آماری بسیار رایج‌تر هستند.

هوش مصنوعی هم همین اشتباه را مرتکب می‌شود. چت‌بات‌ها عاشق این هستند که رسوایی‌های پرسروصدای سلبریتی‌ها را به نمایش بگذارند، چون این داستان‌ها فضای وب را پر کرده‌اند. این در حالی است که رویدادهای معمولی اما پیش‌پاافتاده‌تر نادیده گرفته می‌شوند.

سیستم‌های نظارتی پیش‌بینی‌کننده، محله‌هایی با سوابق طولانی دستگیری را بیش از حد هدف قرار می‌دهند؛ نه لزوماً به این دلیل که خطرناک‌تر هستند، بلکه به این دلیل که داده‌ها در آنجا بیشتر قابل مشاهده‌ هستند.

اگر از هوش مصنوعی بخواهید تصویری را از یک مزرعه ارائه دهد، به جای یک چشم‌انداز خاکی بسیار رایج‌تر، یک منظره‌ دیدنی را با رشته‌کوه یا اقیانوسی درخشان ارائه می‌دهد زیرا انسان‌ها به ندرت از یک منظره خاکی عکس می‌گیرند.

۲. اثر لنگر انداختن. لنگر انداختن نوعی سوگیری شناختی است که موجب می‌شود ذهن در فرایند تصمیم‌گیری به نخستین اطلاعاتی که به دست می‌آورد، تکیه ‌کند.

ما انسان‌ها هنگام سر و کار داشتن با اعداد روی اولین عددی که می‌بینیم، تمرکز می‌کنیم. خریداران با تمرکز بر قیمت‌های اولیه اغراق‌آمیز، تخفیف‌ها را بیش از حد ارزیابی می‌کنند.

اگر از دانش‌آموزان بخواهید تا درآمد یک فروشگاه استارباکس را تخمین بزنند، اما ابتدا از آنها بخواهید تا دو رقم آخر شماره تلفن همراه خود را بنویسند، خواهید دید کسانی که شماره تلفن همراه بالاتری دارند، دائماً تخمین‌های بالاتری را از درآمد ارائه می‌دهند؛ حتی اگر بدیهی باشد که این دو مقدار به هم ربطی ندارند.

پاسخ‌های هوش مصنوعی نیز به همین راحتی تحت تاثیر قرار می‌گیرند. اگر از یک مدل هوش مصنوعی بپرسید «چرا دورکاری شکست می‌خورد؟»، فهرستی را از شکست‌ها ارائه می‌دهد. اگر سؤال را به این صورت تغییر دهید که «چرا دورکاری رونق دارد؟»، نتیجه‌ عکس خواهید گرفت. نکته‌ اصلی در همان عبارت اول نهفته است.

ما نقص‌های تفکر خود را به هوش مصنوعی منتقل کرده‌ایم!

۳. چارچوب‌بندی. فقط اعداد مهم نیستند، بلکه نحوه‌ ارائه‌ آنها نیز اهمیت دارد. نحوه‌ ارائه‌ اطلاعات، تصمیم‌ها را تغییر می‌دهد؛ حتی اگر حقایق یکسان باشند.

یک عمل جراحی با میزان بقای ۹۰ درصد، بسیار جذاب‌تر از جراحی با میزان مرگ‌ومیر ۱۰ درصد به نظر می‌رسد. سرمایه‌گذاران به سهامی که پتانسیل افزایش ۲۰ درصدی دارد، در مقایسه با سهامی که احتمال عدم افزایش آن ۸۰ درصد است، تمایل بیشتری نشان می‌دهند.

هوش مصنوعی نیز همین نشانه‌ها را دریافت می‌کند. یک مدل احساسی با توجه به این که بگویید «چشم‌انداز بهبودیافته است» یا «چشم‌انداز کمتر بد شده است»، به طور متفاوتی تغییر می‌کند.

اگر محصولی به جای «جلوگیری از ضرر» به عنوان «صرفه‌جویی در هزینه» توصیف شود، سیستم‌های بازاریابی هوش مصنوعی لحن خود را تغییر می‌دهند. واژه‌ها چارچوب را تغییر می‌دهند و خروجی نیز به دنبال آن می‌آید.

۴. بیزاری از ضرر. درد ضرر بیشتر از لذت برنده شدن است. سرمایه‌گذاران روی سهامی که ضرر می‌دهد، تمرکز می‌کنند زیرا فروش آن مانند حبس شدن در درد است.

مردم پیشنهادهای منصفانه برای فروش بلیط کنسرت را که به صورت رایگان به آنها داده شده است، رد می‌کنند؛ زیرا فروش بلیط رایگان مانند از دست دادن یک چیز ارزشمند است؛ حتی اگر آن را به قیمت بازار خریداری نکرده باشند.

هوش مصنوعی، نسخه‌ ویژه خود را از بی‌میلی به ضرر نشان می‌دهد. سیستم‌های هوش مصنوعی پیشنهاددهنده به شدت به سمت انتخاب‌های امن و رایج مانند آهنگ‌های پرطرفدار پاپ گرایش دارند، نه پذیرش ریسک پیشنهاد جواهرات گمنامی که ممکن است شکست در آنها وجود داشته باشد.

هنگامی که یک مدل آموزش داده می‌شود، به پیشینیان قدیمی خود تکیه دارد و حتی زمانی که شواهد جدید مسیر بهتری را نشان می‌دهند، در برابر به‌روزرسانی‌ها مقاومت می‌کند.

۵. اعتماد به نفس بیش از حد. توهم دقت موجب می‌شود که ما مطمئن‌تر از آنچه باید باشیم به نظر ‌برسیم. ما دانش خود را بیش از حد ارزیابی می‌کنیم.

کارآفرینان درباره شانس موفقیت استارت‌آپ خود اغراق می‌کنند. پزشکان با قطعیت بی‌اساس تشخیص‌های جسورانه می‌دهند؛ حتی زمانی که داده‌ها از تشخیص‌های آنها پشتیبانی نمی‌کنند. مردم به یک مقدار دقیق مانند ۱۲۴۹.۳۶ بیشتر از یک مقدار گردشده‌ مانند ۱۲۵۰ اعتقاد دارند؛ حتی زمانی که از داده‌های یکسانی به دست آمده باشند.

هوش مصنوعی نیز به همین شکل رفتار می‌کند. مدل‌های هوش مصنوعی مولد، نقل قول‌های ساختگی یا سایر توهمات را با اطمینان کامل به صورتی ارائه می‌دهند که گویی حقیقت محض را بیان می‌کنند. سیستم‌های هوش مصنوعی پیش‌بینی‌کننده، محدوده‌های احتمال باریکی را ارائه می‌دهند که عدم قطعیت آشفته زندگی واقعی را از قلم می‌اندازند. این سیستم‌ها درست مانند ما مطمئن به نظر می‌رسند؛ در حالی که نباید این طور باشند.

۶. وزن‌ دادن به احتمالات. وزن‌ دادن به احتمالات موجب می‌شود شانس‌های تحریف‌شده کوچک، بزرگتر و شانس‌های بزرگ، کوچکتر به نظر ‌برسند. انسان‌ها درباره شانس‌های کوچک اغراق می‌کنند و شانس‌های بزرگ را کم‌اهمیت جلوه می‌دهند. به همین دلیل است که میلیون‌ها نفر با وجود شانس‌های نامعقول، بلیط بخت‌آزمایی می‌خرند یا برای گارانتی‌های بلندمدت لوازم الکترونیکی، هزینه بیشتری پرداخت می‌کنند.

هوش مصنوعی نیز شانس‌ها را اشتباه می‌خواند. سیستم‌های تشخیص تقلب درباره ناهنجاری‌های نادر هشدار می‌دهند؛ در حالی که چت‌بات‌ها گاهی اوقات پاسخ‌های چشمگیر اما بعید را ارائه می‌کنند و نتایج کسل‌کننده و رایجی را که بسیار محتمل‌تر هستند، کم‌اهمیت جلوه می‌دهند.

۷. وضع موجود و قدرت پیش‌فرض. ما به آنچه می‌دانیم پایبند هستیم؛ حتی زمانی که گزینه‌های بهتری وجود دارد. تغییر برای ما خطرناک به نظر می‌رسد و به همین دلیل، روی چیزی تمرکز می‌کنیم که می‌دانیم.

هوش مصنوعی نیز به موارد آشنا علاقه دارد. سیستم‌های هوش مصنوعی به بازیابی توالی‌های رایج واژه‌ها می‌پردازند و حتی غلط‌های املایی رایج را تکرار می‌کنند.

سیستم‌های هوش مصنوعی حقوقی به شدت به رویه‌های پیشین متکی هستند و به جای ورود به عرصه‌های جدید، تکرار می‌کنند که کار همیشه چطور انجام شده است.

تعصبات انسانی در دنیای امروز اغلب نتیجه معکوس می‌دهند. در عین حال، تعصبات هوش مصنوعی به منزله سایه‌هایی از داده‌ها و انتخاب‌های طراحی ما هستند. وقتی آنها با هم ترکیب می‌شوند، یک حلقه بازخورد را تشکیل می‌دهند. تحریفات انسانی، ماشین‌ها را آموزش می‌دهند و ماشین‌ها این تحریفات را به انسان‌ها بازمی‌گردانند.

ما هوش مصنوعی را در تصویر خودمان ساخته‌ایم و هوش مصنوعی اکنون تصویر ما را نشان می‌دهد. خطر فقط این نیست که هوش مصنوعی تعصبات ما را دارد، بلکه این است که این کار را در مقیاس بزرگ، با سرعت، دقت و اقتدار انجام می‌دهد. تعصب انسانی ممکن است به قیمت یک سرمایه‌گذاری بد یا یک قضاوت ضعیف تمام شود، اما تعصب هوش مصنوعی که در میلیون‌ها تعامل تقویت می‌شود، می‌تواند بی‌سروصدا بازارها، سیاست‌ها و باورها را تغییر دهد.

سؤال این نیست که آیا هوش مصنوعی تعصب خواهد داشت یا خیر، زیرا در حال حاضر هم همین طور است. سؤال واقعی این است که درباره این مشکل چه کار کنیم.

انتهای پیام