خطاهای تشخیص گفتار و بازتولید تبعیض سیستمی
سیستمهای ASR با تحلیل میلیونها نمونه صوتی آموزش میبینند، اما عملکرد آنها در برابر طیف گسترده لهجهها و تنوع زبانی یکسان نیست. برخی شرکتها از هوش مصنوعی برای تحلیل مصاحبههای شغلی استفاده میکنند و مدارس نیز برای آزمونهای شفاهی یا زیرنویسهای آموزشی به آن تکیه دارند. حتی بیمارستانها از ابزارهای هوش مصنوعی «محیطی» استفاده میکنند که مکالمات پزشک و بیمار را رونویسی میکند.
طبق تحقیقات، این مدلها اغلب گفتار کسانی را که انگلیسی «استاندارد» صحبت نمیکنند، اشتباه تفسیر میکنند. سارا مایرز وست، مدیر اجرایی موسسه AI Now، هشدار میدهد که چنین خطاهایی میتواند به تشخیصهای اشتباه، ثبت ناقص سوابق یا حتی نتایج ناعادلانه در عدالت کیفری منجر شود. او میگوید: «اگر این سیستمها بدون نظارت دقیق در تصمیمگیریهای مهم به کار گرفته شوند، میتوانند شکافهای موجود را تشدید کنند.»
به گزارش ایتنا آلیسون کوئنک، استاد علوم اطلاعات دانشگاه کرنل تک، نیز تأکید میکند که مدلهای گفتاری هوش مصنوعی بهطور گسترده در حوزههای حساسی مانند بهداشت و عدالت کیفری به کار گرفته میشوند، اما نظارت کافی بر آنها وجود ندارد.
او توضیح میدهد: «استفاده از یک مدل ثابت برای همه افراد منصفانه به نظر میرسد، اما اگر مدل با سوگیری طراحی شده باشد، نتایج برای همه افراد یکسان نخواهد بود.»
تلاش شرکتها برای بهبود و چالشهای باقیمانده
مطابق گزارش Axios شرکتهایی مانند OpenAI، گوگل و آمازون پروژههایی را برای جمعآوری دادههای صوتی متنوعتر آغاز کردهاند. مدل Whisper از OpenAI با ۶۸۰ هزار ساعت داده چندزبانه آموزش دیده تا عملکرد بهتری در برابر لهجههای مختلف و نویز پسزمینه داشته باشد. برخی بیمارستانها نیز از بازبینهای انسانی برای کنترل دوباره خروجی مدلهای نویسنده پزشکی استفاده میکنند.
با این حال، کوئنک معتقد است که افزایش دادهها کافی نیست. او میگوید: «تنوع داده باید یک فرآیند مستمر باشد، نه یک اقدام کوتاهمدت.» در همین حال، وست پیشنهاد میدهد که کشورها باید از سیاست «اعتماد صفر به هوش مصنوعی» پیروی کنند تا شرکتها مجبور باشند دائماً سیستمهای خود را ارزیابی، مستندسازی و اصلاح کنند.
در نهایت، کارشناسان هشدار میدهند که «شکاف شنیداری» هوش مصنوعی نوع جدیدی از تبعیض را ایجاد میکند؛ جایی که حتی شیوه صحبت کردن میتواند به مانعی برای فرصتهای تحصیلی، شغلی و درمانی تبدیل شود. بدون حسابرسی و نظارت مستمر، فناوریهایی که قرار است دسترسی و عدالت را گسترش دهند، ممکن است ناخواسته صداهای بسیاری را حذف کنند.∎