شناسهٔ خبر: 76069602 - سرویس فیلم
نسخه قابل چاپ منبع: روزنامه دنیای‌اقتصاد | لینک خبر

«دنیای اقتصاد»در گزارش ویدئویی پاسخ می‌دهد؛

چرا مدل‌های زبانی هوش مصنوعی دچار «توهم» در پاسخگویی می‌شوند؟

دنیای اقتصاد: مدل‌های زبانی مانند هوش مصنوعی، ممکن است دچار توهم شوند. چرا این اتفاق رخ می‌دهد؟ در این ویدیو ببینید.

صاحب‌خبر -

به گزارش گروه آنلاین روزنامه دنیای اقتصاد، مدل‌های زبانی مانند چت جی‌پی‌تی و سایر مدل‌های هوش مصنوعی، ممکن است دچار توهم شوند که به آن «هالوسینیشن» می‌گویند.

یعنی ممکن است پاسخ‌های نادرست در اختیار کاربر بگذارند، یا اطلاعاتی را ارائه دهند که کاملا تخیلی و ساختگی است و مبنای واقعی ندارد. پرسش این‌جاست که چه چیزی باعث می‌شود مدل‌های زبانی، پاسخ‌های نادرست ارائه کنند و چگونه می‌توان خطای هوش مصنوعی را کاهش داد؟ اصلا کدام مدل‌ها ممکن است بیشترین خطا را داشته باشند؟

توهم هوش مصنوعی چیست؟

مدل‌های زبانی، گاهی اوقات با اعتماد به نفس بالا، اطلاعات نادرست یا ساختگی تولید می‌کنند. این پدیده یک مشکل ساده نیست، بلکه نتیجه پیچیدگی نحوه یادگیری، محدودیت داده‌ها و فشارهای الگوریتمی بر مدل است.

مدل‌های زبانی، دانش واقعی ندارند، آن‌ها فقط احتمال می‌دهند که چه باید بگویند. به همین دلیل وقتی اطلاعات کافی نداشته باشند و از آن‌ها سوال بپرسید «حدس» می‌زنند و همین امر باعث می‌شود به دلیل عدم دسترسی به اطلاعات کافی و درست، مسائلی غیرواقعی را ارائه کنند.

گاهی هم پرسش‌ها به گونه‌ای طرح می‌شوند که مدل هوش مصنوعی را به ارائه پاسخ‌های نادرست، تشویق می‌کند.

حتی جدیدترین و به‌روزترین مدل‌های هوش مصنوعی  سال 2025 هم دچار توهم می‌شوند و پاسخ‌های نادرست یا غیر واقعی در اختیار کاربران می‌گذارند.

یکی از دلایل مهم این است که مدل‌ها یاد نگرفته‌اند که بگویند: «نمی‌دانم!» و به همین دلیل در هر شرایطی، تلاش می‌کنند پاسخی در اختیار کاربر بگذارند. نتیجه این می‌شود که گاهی پاسخ‌های تخیلی را از خودشان ابداع می‌کنند. در واقع مدل‌های زبانی هوش مصنوعی، تشویق می‌شوند که برای کاربردی بودن، چیزی بگویند و ترجیح می‌دهند که حتی اگر لازم شد، حدس بزنند تا اینکه سکوت کنند.

از طرف دیگر، مدل‌های زبانی، به داده‌های زنده و به‌روز دسترسی ندارند. به همین دلیل اگر کاربری، داده‌های خبری و به‌روز را از آن‌ها بپرسد، احتمال اینکه پاسخ نادرست دریافت کند، بسیار بالاست.

توهم در زبان‌های مختلف

یکی از پرسش‌های اساسی کاربران این است که آیا اگر جست‌وجو و طرح پرسش را به زبان دیگری انجام دهند، امکان دارد که میزان توهم مدل زبانی هم کاهش پیدا کند؟ پاسخ این است که «بله»!

در زبان‌هایی مانند انگلیسی، داده‌های آموزشی بیشتری در اختیار هوش مصنوعی قرار گرفته و منابع معمولا معتبرتر هستند، به همین دلیل احتمال توهم و خطا در زبان انگلیسی نسبت به زبان‌های دیگر کمتر است.

معمولا از طریق بررسی و ارزیابی نقل‌قول‌ها، چک کردنِ منابع و همچنین جست‌وجوی بیشتر از طریق پرسش‌های بیشتر از مدل زبانی، می‌توان اطمینان حاصل کرد که این مدل، چقدر جواب‌های نادرست می‌دهد یا تا چه اندازه می‌تواند از توهم فاصله بگیرد.

به صورت کلی، می‌توان گفت که توهم مدل زبانی هوش مصنوعی، یک اشتباه ساده نیست، بلکه نتیجه مستقیم روش کار مدل‌های زبانی است. کاربران باید مطلع باشند که هوش مصنوعی صرفا یک ابزار است و حقیقت مطلق را الزاما در اختیارشان نمی‌گذارد.

در این ویدیو توضیح داده شده که چطور مدل‌های زبانی می‌توانند جواب‌های نادرست را ابداع کنند و چطور می‌توان میزان خطای آن‌ها را کاهش داد.//