به گزارش گروه آنلاین روزنامه دنیای اقتصاد، مدلهای زبانی مانند چت جیپیتی و سایر مدلهای هوش مصنوعی، ممکن است دچار توهم شوند که به آن «هالوسینیشن» میگویند.
یعنی ممکن است پاسخهای نادرست در اختیار کاربر بگذارند، یا اطلاعاتی را ارائه دهند که کاملا تخیلی و ساختگی است و مبنای واقعی ندارد. پرسش اینجاست که چه چیزی باعث میشود مدلهای زبانی، پاسخهای نادرست ارائه کنند و چگونه میتوان خطای هوش مصنوعی را کاهش داد؟ اصلا کدام مدلها ممکن است بیشترین خطا را داشته باشند؟
توهم هوش مصنوعی چیست؟
مدلهای زبانی، گاهی اوقات با اعتماد به نفس بالا، اطلاعات نادرست یا ساختگی تولید میکنند. این پدیده یک مشکل ساده نیست، بلکه نتیجه پیچیدگی نحوه یادگیری، محدودیت دادهها و فشارهای الگوریتمی بر مدل است.
مدلهای زبانی، دانش واقعی ندارند، آنها فقط احتمال میدهند که چه باید بگویند. به همین دلیل وقتی اطلاعات کافی نداشته باشند و از آنها سوال بپرسید «حدس» میزنند و همین امر باعث میشود به دلیل عدم دسترسی به اطلاعات کافی و درست، مسائلی غیرواقعی را ارائه کنند.
گاهی هم پرسشها به گونهای طرح میشوند که مدل هوش مصنوعی را به ارائه پاسخهای نادرست، تشویق میکند.
حتی جدیدترین و بهروزترین مدلهای هوش مصنوعی سال 2025 هم دچار توهم میشوند و پاسخهای نادرست یا غیر واقعی در اختیار کاربران میگذارند.
یکی از دلایل مهم این است که مدلها یاد نگرفتهاند که بگویند: «نمیدانم!» و به همین دلیل در هر شرایطی، تلاش میکنند پاسخی در اختیار کاربر بگذارند. نتیجه این میشود که گاهی پاسخهای تخیلی را از خودشان ابداع میکنند. در واقع مدلهای زبانی هوش مصنوعی، تشویق میشوند که برای کاربردی بودن، چیزی بگویند و ترجیح میدهند که حتی اگر لازم شد، حدس بزنند تا اینکه سکوت کنند.
از طرف دیگر، مدلهای زبانی، به دادههای زنده و بهروز دسترسی ندارند. به همین دلیل اگر کاربری، دادههای خبری و بهروز را از آنها بپرسد، احتمال اینکه پاسخ نادرست دریافت کند، بسیار بالاست.
توهم در زبانهای مختلف
یکی از پرسشهای اساسی کاربران این است که آیا اگر جستوجو و طرح پرسش را به زبان دیگری انجام دهند، امکان دارد که میزان توهم مدل زبانی هم کاهش پیدا کند؟ پاسخ این است که «بله»!
در زبانهایی مانند انگلیسی، دادههای آموزشی بیشتری در اختیار هوش مصنوعی قرار گرفته و منابع معمولا معتبرتر هستند، به همین دلیل احتمال توهم و خطا در زبان انگلیسی نسبت به زبانهای دیگر کمتر است.
معمولا از طریق بررسی و ارزیابی نقلقولها، چک کردنِ منابع و همچنین جستوجوی بیشتر از طریق پرسشهای بیشتر از مدل زبانی، میتوان اطمینان حاصل کرد که این مدل، چقدر جوابهای نادرست میدهد یا تا چه اندازه میتواند از توهم فاصله بگیرد.
به صورت کلی، میتوان گفت که توهم مدل زبانی هوش مصنوعی، یک اشتباه ساده نیست، بلکه نتیجه مستقیم روش کار مدلهای زبانی است. کاربران باید مطلع باشند که هوش مصنوعی صرفا یک ابزار است و حقیقت مطلق را الزاما در اختیارشان نمیگذارد.
در این ویدیو توضیح داده شده که چطور مدلهای زبانی میتوانند جوابهای نادرست را ابداع کنند و چطور میتوان میزان خطای آنها را کاهش داد.//