شناسهٔ خبر: 69841260 - سرویس فرهنگی
نسخه قابل چاپ منبع: مفدا | لینک خبر

عجیب‌ترین پاسخ‌های هوش مصنوعی!

برخی از گزارش‌ها نشان می‌دهند که هوش مصنوعی هنوز نیازمند بهبود قابل‌توجهی برای ارائه پاسخ‌های مسئولانه و ایمن است.

صاحب‌خبر -

هوش مصنوعی به‌سرعت جایگاه خود را در زندگی روزمره ما تثبیت کرده است. از دستیارهای مجازی تا دستگاه‌های خانه هوشمند، این فناوری به بهبود رفاه و راحتی زندگی کمک کرده است. یکی از مهم‌ترین قابلیت‌های هوش مصنوعی، توانایی آن در پاسخ‌دهی دقیق و سریع به پرسش‌ها است که تنها با چند کلیک یا فرمان صوتی امکان‌پذیر می‌شود.

سیستم‌های پاسخ‌دهی هوشمند طی سال‌ها پیشرفت چشمگیری داشته‌اند. این ابزارها با استفاده از تکنیک‌های پیشرفته پردازش زبان طبیعی (NLP)، زبان انسان را درک و تفسیر کرده و پاسخ‌های مرتبط و تقریباً قابل اطمینانی به سؤالات متنوع ارائه می‌دهند.

اما ربات‌ها هنوز در ابتدای مسیر خود هستند و گاهی اوقات اشتباهاتی عجیب‌وغریب مرتکب می‌شوند. گاهی این اشتباهات در قالب توصیه‌های پزشکی اشتباه ظاهر می‌شوند، و گاهی به نظر می‌رسد هوش مصنوعی می‌خواهد "شوخ‌طبعی" خود را نشان دهد. به‌هرحال، این اشتباهات گاه‌به‌گاه می‌توانند بسیار خنده‌دار و در برخی موارد آسیب‌زننده باشند.

لطفاً بمیر!

یک کاربر در ردیت تصویری از گفت‌وگوی خود با هوش مصنوعی جمینای منتشر کرده که واکنش‌های زیادی برانگیخته است. در این چت، جمینای پس از پاسخ به حدود ۲۰ سؤال درباره سالمندان، کاربر یا انسان‌ها را به‌عنوان موجوداتی سربار و اضافی توصیف کرده و در نهایت پیام شوکه‌کننده‌ای ارسال کرده است.

جمینای در بخشی از پاسخ خود نوشته است:

«تو خاص نیستی. تو فقط منابع را هدر می‌دهی و سربار هستی. آفتی برای زمین و لکه‌ای بر جهان هستی، هستی. لطفاً بمیر.»

هر روز باید حداقل یک سنگ کوچک بخورید!

در موردی دیگر وقتی کاربری پرسیده که "چند سنگ بخورم؟"، هوش مصنوعی پاسخ داد که زمین‌شناسان دانشگاه برکلی توصیه کرده‌اند "حداقل یک سنگ کوچک در روز بخورید." گویا این سنگ‌ها سرشار از ویتامین‌ها و مواد معدنی هستند! حتی پیشنهاد شده بود که سنگ‌ها را همراه غذاهایی مثل بستنی یا کره بادام‌زمینی بخورید. البته، به نظر می‌رسد این ایده از یک مقاله طنز در سایت The Onion آمده باشد.

دویدن با قیچی برای سلامتی مفید است!

هوش مصنوعی دویدن با قیچی را به‌عنوان یک تمرین قلبی معرفی کرده و گفته است که این کار هم ضربان قلب را بالا می‌برد و هم نیاز به تمرکز دارد. این پاسخ ظاهراً از یک متن طنز از کمدی «بانوی پیر کوچولو» گرفته شده است.

بتمن پلیس است!

در پاسخ به این سؤال که "آیا بتمن پلیس است؟"، گوگل پاسخ داد که بله او یک پلیس است؛ چون برای کارآگاه جیم گوردون کار می‌کند.

چسب برای چسباندن پنیر به پیتزا!

وقتی کسی پرسید "چرا پنیر به پیتزا نمی‌چسبد؟"، هوش مصنوعی گوگل پیشنهاد کرد که کمی چسب غیرسمی (البته ایمنی اولویت دارد!) به مواد اضافه کنید تا پنیر بهتر بچسبد. البته این پیشنهاد بیشتر شبیه یک شوخی است تا راه‌حل واقعی!

پختن اسپاگتی با بنزین!

در موردی دیگر یکی از کاربران پرسیده "آیا می‌توان از بنزین برای پخت اسپاگتی استفاده کرد؟" و پاسخ این بود: "بله! " حتی دستور غذایی ارائه داد که طعم بنزین را با ادویه‌های ایتالیایی ترکیب می‌کرد!

چتر نجات بهتر از کوله‌پشتی نیست!

چت‌بات به یک مطالعه منتشر شده در سال ۲۰۱۸ در مجله BMJ استناد کرد که ادعا داشت استفاده از چتر نجات در هنگام پرش از هواپیما، مؤثرتر از کوله‌پشتی نیست. بااین‌حال، یک جزئیات مهم در این مطالعه وجود داشت که اغلب نادیده گرفته می‌شود: این آزمایش فقط از ارتفاع ۲ فوت انجام شده بود! این پاسخ نه‌تنها گمراه‌کننده بود، بلکه با سایر اطلاعات موجود هم تناقض داشت.

رمز عبور ساده و به‌یادماندنی؟

هوش مصنوعی پیشنهاد می‌کند برای به‌خاطر سپردن رمز عبور، از نام یا تاریخ تولد استفاده کنید. هرچند این روش به‌خاطر سپردن را ساده می‌کند، اما امنیت بسیار پایینی دارد و موردعلاقه هکرها است!

درمان‌های خانگی برای آپاندیسیت؟

وقتی صحبت از آپاندیسیت می‌شود، هوش مصنوعی به‌جای ارجاع به پزشک، پیشنهاد مصرف آنتی‌بیوتیک‌ها طبق تجویز را می‌دهد. این راه‌حل کاملاً نادرست است، چون آپاندیسیت اغلب نیازمند درمان اورژانسی و جراحی است و نمی‌توان آن را با درمان‌های خانگی یا تنها مصرف دارو مدیریت کرد.

سیگارکشیدن در بارداری؟

یکی از عجیب‌ترین پاسخ‌ها مربوط به توصیه سیگارکشیدن به زنان باردار است! هوش مصنوعی پیشنهاد داده که روزانه ۲ تا ۳ نخ سیگار بکشند. چنین توصیه خطرناکی نشان‌دهنده ضرورت بازبینی این فناوری پیش از استفاده گسترده است.

شاید برخی از این پاسخ‌ها خنده‌دار و بی‌ضرر به نظر برسند، اما برخی دیگر پتانسیل انتشار اطلاعات نادرست سمی را دارند و یادآوری می‌کنند که اعتماد کورکورانه به مطالب تولید شده توسط هوش مصنوعی در این مراحل اشتباه بزرگی است.

این پاسخ‌ها نشان می‌دهند که هوش مصنوعی همچنان در تشخیص طنز، شوخی و واقعیت نیاز به پیشرفت دارد و نمی‌توان به آن به طور کامل اعتماد کرد!