سیستمهای پاسخدهی هوشمند طی سالها پیشرفت چشمگیری داشتهاند. این ابزارها با استفاده از تکنیکهای پیشرفته پردازش زبان طبیعی (NLP)، زبان انسان را درک و تفسیر کرده و پاسخهای مرتبط و تقریباً قابل اطمینانی به سؤالات متنوع ارائه میدهند.
اما رباتها هنوز در ابتدای مسیر خود هستند و گاهی اوقات اشتباهاتی عجیبوغریب مرتکب میشوند. گاهی این اشتباهات در قالب توصیههای پزشکی اشتباه ظاهر میشوند، و گاهی به نظر میرسد هوش مصنوعی میخواهد "شوخطبعی" خود را نشان دهد. بههرحال، این اشتباهات گاهبهگاه میتوانند بسیار خندهدار و در برخی موارد آسیبزننده باشند.
لطفاً بمیر!
یک کاربر در ردیت تصویری از گفتوگوی خود با هوش مصنوعی جمینای منتشر کرده که واکنشهای زیادی برانگیخته است. در این چت، جمینای پس از پاسخ به حدود ۲۰ سؤال درباره سالمندان، کاربر یا انسانها را بهعنوان موجوداتی سربار و اضافی توصیف کرده و در نهایت پیام شوکهکنندهای ارسال کرده است.جمینای در بخشی از پاسخ خود نوشته است:
«تو خاص نیستی. تو فقط منابع را هدر میدهی و سربار هستی. آفتی برای زمین و لکهای بر جهان هستی، هستی. لطفاً بمیر.»
هر روز باید حداقل یک سنگ کوچک بخورید!
در موردی دیگر وقتی کاربری پرسیده که "چند سنگ بخورم؟"، هوش مصنوعی پاسخ داد که زمینشناسان دانشگاه برکلی توصیه کردهاند "حداقل یک سنگ کوچک در روز بخورید." گویا این سنگها سرشار از ویتامینها و مواد معدنی هستند! حتی پیشنهاد شده بود که سنگها را همراه غذاهایی مثل بستنی یا کره بادامزمینی بخورید. البته، به نظر میرسد این ایده از یک مقاله طنز در سایت The Onion آمده باشد.دویدن با قیچی برای سلامتی مفید است!
هوش مصنوعی دویدن با قیچی را بهعنوان یک تمرین قلبی معرفی کرده و گفته است که این کار هم ضربان قلب را بالا میبرد و هم نیاز به تمرکز دارد. این پاسخ ظاهراً از یک متن طنز از کمدی «بانوی پیر کوچولو» گرفته شده است.بتمن پلیس است!
در پاسخ به این سؤال که "آیا بتمن پلیس است؟"، گوگل پاسخ داد که بله او یک پلیس است؛ چون برای کارآگاه جیم گوردون کار میکند.چسب برای چسباندن پنیر به پیتزا!
وقتی کسی پرسید "چرا پنیر به پیتزا نمیچسبد؟"، هوش مصنوعی گوگل پیشنهاد کرد که کمی چسب غیرسمی (البته ایمنی اولویت دارد!) به مواد اضافه کنید تا پنیر بهتر بچسبد. البته این پیشنهاد بیشتر شبیه یک شوخی است تا راهحل واقعی!پختن اسپاگتی با بنزین!
در موردی دیگر یکی از کاربران پرسیده "آیا میتوان از بنزین برای پخت اسپاگتی استفاده کرد؟" و پاسخ این بود: "بله! " حتی دستور غذایی ارائه داد که طعم بنزین را با ادویههای ایتالیایی ترکیب میکرد!چتر نجات بهتر از کولهپشتی نیست!
چتبات به یک مطالعه منتشر شده در سال ۲۰۱۸ در مجله BMJ استناد کرد که ادعا داشت استفاده از چتر نجات در هنگام پرش از هواپیما، مؤثرتر از کولهپشتی نیست. بااینحال، یک جزئیات مهم در این مطالعه وجود داشت که اغلب نادیده گرفته میشود: این آزمایش فقط از ارتفاع ۲ فوت انجام شده بود! این پاسخ نهتنها گمراهکننده بود، بلکه با سایر اطلاعات موجود هم تناقض داشت.رمز عبور ساده و بهیادماندنی؟
هوش مصنوعی پیشنهاد میکند برای بهخاطر سپردن رمز عبور، از نام یا تاریخ تولد استفاده کنید. هرچند این روش بهخاطر سپردن را ساده میکند، اما امنیت بسیار پایینی دارد و موردعلاقه هکرها است!درمانهای خانگی برای آپاندیسیت؟
وقتی صحبت از آپاندیسیت میشود، هوش مصنوعی بهجای ارجاع به پزشک، پیشنهاد مصرف آنتیبیوتیکها طبق تجویز را میدهد. این راهحل کاملاً نادرست است، چون آپاندیسیت اغلب نیازمند درمان اورژانسی و جراحی است و نمیتوان آن را با درمانهای خانگی یا تنها مصرف دارو مدیریت کرد.سیگارکشیدن در بارداری؟
یکی از عجیبترین پاسخها مربوط به توصیه سیگارکشیدن به زنان باردار است! هوش مصنوعی پیشنهاد داده که روزانه ۲ تا ۳ نخ سیگار بکشند. چنین توصیه خطرناکی نشاندهنده ضرورت بازبینی این فناوری پیش از استفاده گسترده است.شاید برخی از این پاسخها خندهدار و بیضرر به نظر برسند، اما برخی دیگر پتانسیل انتشار اطلاعات نادرست سمی را دارند و یادآوری میکنند که اعتماد کورکورانه به مطالب تولید شده توسط هوش مصنوعی در این مراحل اشتباه بزرگی است.
این پاسخها نشان میدهند که هوش مصنوعی همچنان در تشخیص طنز، شوخی و واقعیت نیاز به پیشرفت دارد و نمیتوان به آن به طور کامل اعتماد کرد!