شناسهٔ خبر: 75184120 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: گجت نیوز | لینک خبر

دیگر نمی‌توانید صدای انسان را از هوش مصنوعی تشخیص دهید!

صاحب‌خبر -

یک تحقیق جدید نشان می‌دهد مرز بین صدای انسان و هوش مصنوعی کاملا از بین رفته است. این پیشرفت شگفت‌انگیز چه خطراتی در زمینه امنیت و کلاهبرداری ایجاد می‌کند؟

یک تحقیق علمی جدید نشان می‌دهد که دیگر نمی‌توان به سادگی تفاوت میان صدای انسان و هوش مصنوعی را تشخیص داد و اکثر افراد درء شناسایی صداهای دیپ‌فیک (Deepfake) شکست می‌خورند. این در حالی است که تا همین چند سال پیش، صداهای رباتیک و بی‌روح دستیارهای صوتی مانند سیری و الکسا، این تصور را ایجاد می‌کرد که تشخیص صدای واقعی از ماشینی کار ساده‌ای است.

بر اساس این مطالعه که در ژورنال معتبر PLoS One منتشر شده، محققان دریافتند وقتی افراد به صدای واقعی انسان‌ها و نسخه شبیه‌سازی شده آنها توسط هوش مصنوعی گوش می‌دهند، دیگر قادر به شناسایی دقیق نسخه واقعی از جعلی نیستند. نادین لاوان، نویسنده اصلی این تحقیق، می‌گوید رسیدن فناوری به این نقطه که بتواند گفتاری کاملا طبیعی و شبیه به انسان تولید کند، فقط مسئله زمان بود.

وقتی مرز بین صدای انسان و هوش مصنوعی محو می‌شود

در این پژوهش، محققان ۸۰ نمونه صدا (۴۰ صدای واقعی و ۴۰ صدای تولید شده توسط AI) را به شرکت‌کنندگان ارائه کردند. نتایج نشان داد صداهای هوش مصنوعی که از ابتدا و بدون الگوی انسانی ساخته شده بودند، هنوز تا حدی قابل تشخیص هستند و تنها در ۴۱ درصد موارد با صدای انسان اشتباه گرفته شدند.

بیشتر بخوانید

اما چالش اصلی زمانی بود که پای صداهای شبیه‌سازی شده از روی صدای واقعی انسان به میان آمد. در این حالت، ۵۸ درصد از صداهای دیپ‌فیک به اشتباه به عنوان صدای انسان شناسایی شدند. این آمار تقریبا با آمار تشخیص صحیح صدای واقعی انسان (۶۲ درصد) برابر بود. محققان نتیجه گرفتند که از نظر آماری، دیگر تفاوتی در توانایی ما برای تشخیص صدای واقعی از کلون دیپ‌فیک آن وجود ندارد.

خطرات دیپ‌فیک صوتی: از کلاهبرداری تا آشوب اجتماعی

این نتایج پیامدهای عمیقی برای امنیت، اخلاق و حق کپی‌رایت دارد. مجرمان می‌توانند با شبیه‌سازی صدای شما، به راحتی پروتکل‌های احراز هویت صوتی در بانک‌ها را دور بزنند یا نزدیکان شما را برای انتقال پول فریب دهند. پیش از این نیز مواردی مانند کلاهبرداری ۱۵ هزار دلاری از یک مادر با تقلید صدای گریه دخترش اتفاق افتاده است.

علاوه بر این، از صداهای جعلی می‌توان برای ساختن مصاحبه‌ها یا بیانیه‌های دروغین از سوی سیاستمداران و افراد مشهور استفاده کرد. این کار می‌تواند با هدف بی‌اعتبار کردن افراد یا تحریک ناآرامی‌های اجتماعی انجام شود. نکته نگران‌کننده این است که محققان برای ساخت این صداهای فوق‌العاده واقعی، از نرم‌افزارهای تجاری موجود در بازار و تنها با چهار دقیقه فایل صوتی از صدای یک فرد استفاده کردند که نشان می‌دهد مرز میان صدای انسان و هوش مصنوعی بسیار باریک شده است.

برچسب‌ها: