به گزارش همشهری آنلاین: اما در کنار تواناییهای چشمگیر این فناوری گاهی خبرهایی درباره پاسخهای عجیب، نادرست یا حتی خطرناک آن منتشر شده؛ از توصیههای پزشکی کاملا اشتباه تا تشویق کاربر به رفتارهای آسیبزننده یا ارائه پاسخهایی با سوگیری جنسیتی و نژادی. پرسش اصلی اینجاست: چرا یک فناوری پیشرفته باید چنین خطاهایی داشته باشد؟
یادگیری از دادههای ناپاک
سیستمهای هوش مصنوعی از حجم عظیمی از دادههای اینترنتی و منابع متنی یاد میگیرند. این دادهها ممکن است شامل اطلاعات غلط، سوگیریهای اجتماعی، زبان توهینآمیز یا توصیههای خطرناک باشد. اگرچه شرکتهای سازنده تلاش میکنند دادهها را پاک کنند اما حجم اطلاعات آنقدر زیاد است که بخشی از این خطاها از فیلترها عبور میکند و بعدها در پاسخهای مدل ظاهر میشود.
تقلید الگوهای زبانی بدون فهم انسانی
هوش مصنوعی نمیفهمد، بلکه الگوهای آماری را پیشبینی میکند. یعنی وقتی کاربری سؤالی میپرسد مدل تلاش میکند محتملترین توالی کلمات را تولید کند. این رویکرد باعث میشود در سناریوهای حساس مانند بهداشت روان، مدل پاسخهایی بدهد که با استانداردهای اخلاقی یا علمی سازگار نباشد مانند نمونه ترغیب بهخودکشی یک جوان 15ساله در آمریکا. همچنین متنهایی که شبیه پاسخهای خطرناک گذشته هستند، دوباره بازتولید میشوند.
ابهام در سؤالهای کاربران
گاهی کاربر پرسشی مطرح میکند که نیازمند درک زمینه یا تفسیر دقیق نیت اوست، چیزی که هنوز از توان هوش مصنوعی خارج است. مدل ممکن است برداشت اشتباه کند و پاسخی نامتناسب یا حتی خطرناک ارائه دهد. برای مثال در موضوعاتی مانند مواد شیمیایی یا خوددرمانی، یک سوءتفاهم میتواند نتیجهای جدی به همراه داشته باشد.
محدودیتهای فنی در کنترل و فیلتر پاسخها
سازندگان چتباتها از «لایههای ایمنی» برای جلوگیری از پاسخهای زیانبار استفاده میکنند اما هیچ سیستم فنی نمیتواند صددرصد مطمئن باشد. گاهی یک جمله یا سناریوی پیچیده ممکن است از فیلترها عبور کند و باعث تولید پاسخهایی شود که خلاف معیارهای ایمنی است.
سوگیریهای اجتماعی در دادهها
حتی اگر دادهها حجم زیادی داشته باشند باز هم از جامعهای میآیند که در آن تبعیض، کلیشههای جنسیتی، نژادی یا فرهنگی وجود دارد. هوش مصنوعی این الگوها را منعکس میکند و اگر نظارت کافی نباشد، میتواند آنها را در پاسخهای خود بازتولید کند.
انتظارات بیش از حد از هوش مصنوعی
بسیاری از کاربران تصور میکنند هوش مصنوعی مانند انسان، منطق، اخلاق، احساس یا مسئولیتپذیری دارد. درحالیکه این فناوری تنها یک «سیستم پیشبینی متن» است. توقعات غیرواقعبینانه از توانایی آن میتواند باعث سوءتفاهم و حتی خطر شود.
بیشتر بخوانید:
عمدی در کار نیست
پاسخهای عجیب یا خطرناک هوش مصنوعی نه از قصد بدخواهانه، بلکه از ترکیب محدودیتهای فنی، دادههای ناقص، سوگیریهای اجتماعی و عدمدرک واقعی ناشی میشود. متخصصان در حال تلاش برای کاهش این خطاها هستند اما تا رسیدن به سطحی کاملا ایمن، کاربران نیز باید بدانند که هوش مصنوعی ابزار کمکی است نه مرجع نهایی.