شناسهٔ خبر: 75777697 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: تبیان | لینک خبر

هشدار جهانی درباره کلاهبرداری صوتی چه می‌گویند؟

کلاهبرداران با استفاده از هوش مصنوعی صدای اعضای خانواده را تقلید می‌کنند و با تماس تلفنی یا پیام صوتی، قربانیان را به ارسال پول یا اطلاعات حساس فریب می‌دهند. این تهدید جدید، جهانی است و هر کسی ممکن است هدف آن قرار گیرد.

صاحب‌خبر -

در عصر حاضر که ابزارهای هوش مصنوعی روزبه‌روز قدرتمندتر، ارزان‌تر و قابل دسترس‌تر می‌شوند، نوع جدیدی از کلاهبرداری در حال گسترش است: مجرمانی که صدای یکی از اعضای خانواده یا آشنای قربانی را با تکنولوژی کلون کردن صدا تقلید می‌کنند و با تماس تلفنی یا پیام صوتی، تقاضای فوری پول، انتقال وجه یا اطلاعات حساس می‌کنند. این روش که اغلب با نام‌هایی مثل «voice-cloning scam» یا «deep-fake voice vishing» شناخته می‌شود، به سرعت در سطح جهانی رشد کرده و برای بسیاری از افراد و خانواده‌ها تهدید جدّی شده است.


چگونه این کلاهبرداری کار می‌کند؟

 ماجرا معمولاً از یک چیز ساده شروع می‌شود: چند ثانیه صدای شما در اینترنت.

 ۱. جمع کردن صدا: کلاهبردار فقط به چند ثانیه از صدای شما نیاز دارد. شاید از یک ویدیوی خانوادگی، پیام صوتی در واتس‌اپ یا حتی از استوری شبکه‌های اجتماعی صدایتان را بردارد.

 ۲. تقلید با هوش مصنوعی: با برنامه‌هایی که در اینترنت به راحتی پیدا می‌شوند، همان چند ثانیه کافی است تا نرم‌افزار صدایی بسازد که دقیقاً مثل شما حرف می‌زند، با همان لحن، مکث و آهنگ گفتار.

 ۳. تماس جعلی: بعد، با صدای شما یا یکی از عزیزانتان تماس می‌گیرند. معمولاً با یک داستان اضطراری: «مامان! تصادف کردم، باید سریع پول بفرستی!» یا «منو گرفتن، باید وثیقه بدی!» چون صدا آشناست، قربانی فرصت فکر کردن پیدا نمی‌کند.

 ۴. درخواست پول فوری: طرف مقابل می‌خواهد فوراً پول بفرستید، آن‌هم از راه‌هایی که ردیابی‌شان سخت است؛ مثل کارت هدیه، رمزارز یا انتقال بین‌المللی.

 ۵. و بعد… خیلی دیر شده: تا زمانی که خانواده یا فرد مقابل متوجه می‌شود ماجرا جعلی بوده، معمولاً پول ارسال شده و هیچ راهی برای بازگرداندنش وجود ندارد.

 در گزارشی از موسسه Group‑IB (یک شرکت بین‌المللی امنیت سایبری) آمده که در منطقه آسیا اقیانوسیه، حملات مبتنی بر صدای کلون‌شده در سال ۲۰۲۴ نسبت به ۲۰۲۳ رشد ۱۹۴٪ داشته‌اند.

چرا موفق می‌شود؟

 چند عامل به این موفقیت کمک می‌کند:

 احساس اضطرار و هیجان: وقتی صدای آشنا می‌شنویم، به‌ویژه اگر مسئله‌ای اضطراری مطرح شود، واکنش سریع می‌دهیم و کمتر تردید می‌کنیم.

 کیفیت بالای تقلید صدا: مطالعات منتشر شده در Nature نشان می‌دهند بسیاری از افراد نمی‌توانند صدای تولیدشده توسط AI را از صدای واقعی تشخیص دهند. مثلاً در یک پژوهش بزرگ، شرکت‌کنندگان به دقت حدود ۷۰-۸۰٪ موفق بودند و یعنی تقریباً ۲۰-۳۰٪ وقت‌ها فریب خوردند.

 دسترسی آسان به نمونه‌های صوتی: افراد در شبکه‌های اجتماعی، پیام‌ها، تماس‌های آنلاین و … صدای خود یا اعضای خانواده‌شان را منتشر می‌کنند که می‌تواند توسط مجرمان استخراج شود.

 ابزارهای کلون کردن صدا ارزان و در دسترس: حتی با چند ثانیه صدای ضبط‌شده، می‌توان صدایی با کیفیت بسیار خوب تولید کرد.

 ضعف یا تأخیر در تشخیص و جلوگیری از این نوع حملات توسط شرکت‌های مخابراتی یا نهادهای نظارتی: مثلاً گزارشِ European Parliament، اشاره دارد که فناوری تشخیص این حملات هنوز عقب‌تر از فناوری سوءاستفاده است.

ابعاد جهانی و نمونه‌ها

 این پدیده محدود به یک کشور یا منطقه نیست؛ در سطح بین‌المللی گزارش شده و تأثیرگذار است. در گزارش جهانی شرکت McAfee (شرکت‌ امنیت سایبری آمریکایی)، در بررسی حدود ۷۰۰۰ نفر، یک نفر از هر چهار نفر گفته که خودش یا آشنایشان در معرض حمله کلون صدا قرار گرفته‌اند؛ و از میان کسانی که گزارش کردند، ۷۷٪ گفته‌اند پول از دست داده‌اند.

 در گزارشی از موسسه Group‑IB (یک شرکت بین‌المللی امنیت سایبری) آمده که در منطقه آسیا اقیانوسیه، حملات مبتنی بر صدای کلون‌شده در سال ۲۰۲۴ نسبت به ۲۰۲۳ رشد ۱۹۴٪ داشته‌اند. مثلا در یکی از پرونده‌های واقعی در ایالات متحده که گزارش آن در مجله People منتشر شده، زنی تماس تلفنی دریافت کرد که صدای آن دقیقاً شبیه دخترش بود و با گریه می‌گفت: «مامان، منو دزدیدن، باید سریع پول بفرستی!»

زن بدون لحظه‌ای تردید ۱۵ هزار دلار به حسابی که اعلام شده بود واریز کرد. اما چند ساعت بعد، وقتی با دخترش تماس گرفت، فهمید که او در سلامت کامل است و هیچ اتفاقی نیفتاده. بعدها مشخص شد صدای جعلی با استفاده از چند ثانیه از ویدیوهای آنلاین دختر ساخته شده بود.

در نمونه‌ای دیگر خبرگزاری Reuters هم گزارش داد در ایتالیا، گروهی از کلاهبرداران با استفاده از هوش مصنوعی صدای یکی از وزیران را شبیه‌سازی کردند و با این صدا به چند تاجر تماس گرفتند. در تماس‌ها، فردی که وانمود می‌کرد همان وزیر است، از تاجران خواست در پروژه‌ای فوری سرمایه‌گذاری کنند و پول انتقال دهند. پلیس ایتالیا پیش از خروج کامل پول‌ها از حساب، حدود یک میلیون یورو را مسدود کرد و پرونده در حال بررسی است. این اتفاق باعث شد دولت ایتالیا درباره خطر «صداهای جعلی» هشدار رسمی منتشر کند.
 

بهای صدای جعلی

 خسارت مالی: بسیاری از قربانیان یا شرکت‌ها بخش مهمی از دارایی‌شان را از دست داده‌اند. به‌عنوان مثال، گزارش‌های Group‑IB نشان می‌دهند در برخی شرکت‌ها خسارت به صدها هزار دلار رسیده است.

 آسیب روانی و اعتماد: قربانیان احساس می‌کنند اعتمادشان به اعضای خانواده یا محیط‌شان شکسته شده؛ زیرا «صدای عزیزم بود، پس چرا اشتباه کردم؟».

 خطر برای امنیت اجتماعی و ملی: وقتی ابزارها به سطوح دولتی، سیاسی یا اقتصادی برسند، امکان سوءاستفاده از صدا برای جعل هویت، اخاذی یا حتی مداخلات موثر در رای‌گیری و رسانه‌ها وجود دارد.

 پیچیدگی حقوقی و نظارتی: بسیاری از کشورها هنوز قوانین مشخصی برای «تصویر یا صدای کلون‌شده بدون اجازه» ندارند یا سازوکارهای نظارتی‌شان دیر عمل می‌کند.

راه‌های شناسایی و مقابله برای عموم مردم

 برای کاهش ریسک و محافظت از خود و خانواده، توصیه‌های زیر به‌کار می‌آیند:

 کلمهٔ رمز خانوادگی یا «عبارت امن» تعیین کنید: مثلاً اگر تماس گرفتند و خواستند پول، از آن فرد بخواهید کلمه‌ای را بگوید که فقط شما و او می‌دانید.

 تماس معکوس بگیرید: اگر تماس اضطراری بود، با شماره‌ای که خودتان دارید تماس بگیرید، نه فقط به شماره‌ای که تماس‌گیرنده اعلام می‌کند تا مطمئن شوید طرف مقابل واقعاً همان شخص است.

 تردید در پرداخت فوری با روش‌های غیرقابل برگشت: اگر بخواهند پول نقد، کارت هدیه، رمزارز یا انتقال سریع بین‌المللی بخواهند، احتمال فریب بسیار بالاست.

 محدود کردن انتشار صدای خود یا اعضای خانواده: در شبکه‌های اجتماعی یا پیام‌رسان‌ها، از ارسال کلیپ‌های صوتی طولانی یا با کیفیت بالا خودداری کنید؛ زیرا ممکن است منبعی برای کلون صدا شود.

 شفاف‌سازی و آموزش در خانواده: به‌ویژه اعضای مسن‌تر خانواده باید بدانند که تماس صوتی آشنا ممکن است تقلبی باشد و به آنان آموزش دهید که قبل از هرگونه اقدام مالی، با فرد موردنظر تماس مستقیم بگیرند.

قربانی شدید؟ این کارها را فوراً انجام دهید

  • فوراً با بانک خودتان  تماس بگیرید و بخواهید تراکنش فریز یا بررسی شود.
  • گزارش به پلیس و مرکز جرایم سایبری را انجام دهید.
  • اگر ممکن است، مستندات تماس، صوت، شماره تلفن، زمان تماس را ذخیره کنید. این اطلاعات می‌تواند در پیگیری کمک کند.
  • به خانواده یا اطرافیان بگویید که این اتفاق برای شما افتاده است، تا اگر مجدداً مورد هدف قرار گرفتند، آگاه باشند.

 کلاهبرداری‌های صوتی مبتنی بر هوش مصنوعی، با تقلید صدای آشنا و بازی با احساسات قربانی، یک تهدید رو به رشد جهانی هستند. این شکل کلاهبرداری نه فقط از نظر مالی آسیب‌زاست بلکه می‌تواند اعتماد میان اعضای خانواده، جوامع و حتی نهادهای نهادی را سست کند. اما با داشتن آگاهی، تدبیر و آموزش می‌توان احتمال وقوعش را به‌شدت کاهش داد. هر تماس یا پیام اضطراری که از صدای «عزیزی» گزارش می‌دهد، لزوماً معتبر نیست، لحظه‌ای مکث کنید، بررسی کنید، و بعد اقدام کنید.