به گزارش خبرنگار مهر؛ انتخابات تنها فرصتی برای دولتها نیست تا با استفاده از ابزارهای هوش مصنوعی مولد به تخریب اعتبار سیاستمداران بپردازند، بلکه فرصتی برای مجرمان سایبری نیز هست که با بهرهگیری از این ابزارها، کلاهبرداریهای مبتنی بر مهندسی اجتماعی را به شکل گستردهتر و پیچیدهتری سازماندهی کنند.
با نزدیک شدن به موعد انتخابات ریاست جمهوری آمریکا و درحالی که توجهات به برگزاری این رویداد سیاسی در ماه نوامبر معطوف شده، تهدید رو به رشد فناوریهای هوش مصنوعی مولد، بهویژه دیپفیکها، غیرقابلچشمپوشی است. تهدیدات ناشی از سوءاستفاده از فناوریهای هوش مصنوعی مولد بیش از هر زمان دیگری توجهات را به خود جلب کرده است. انتخابات در ایالات متحده نه تنها فرصتی برای دولتها است تا با استفاده از ابزارهای هوش مصنوعی به تخریب اعتبار سیاستمداران بپردازند، بلکه عرصهای مناسب برای مجرمان سایبری است که بهوسیله ابزارهای پیشرفتهتری چون دیپفیکها و مدلهای زبانی بزرگ، کلاهبرداریهای پیچیدهتری را سازماندهی کنند. نمونههای اخیر استفاده از دیپفیک برای شبیهسازی تصاویر یا کلیپهای صوتی و تصویری سیاستمداران در آمریکا، نگرانیها درباره پیامدهای بالقوه این فناوریها برای سلامت فرآیندهای دموکراتیک را افزایش داده است.
سیاستمداران به دلیل جایگاه عمومی و تأثیرگذاریشان بر شهروندان، اهداف اصلی این نوع حملات هستند. افزایش توجه عمومی به کنشگران سیاسی در دوران انتخابات، این مسئله را تشدید کرده و عرصه را برای بازیگران مخربی که در پی استفاده از این فناوریها در راستای اختلال در فرایندهای سیاسی هستند، باز میکند.
وبگاه خبری NBC News سال گذشته در گزارشی اعلام کرد که ایالت میشیگان آمریکا قصد دارد، با تدوین برخی سیاستها، استفاده از هوش مصنوعی و سایر رسانهها در راستای فریب مخاطبان را محدود کند. طبق قانونی که انتظار میرود در روزهای آینده توسط فرماندار این ایالت، گرچن ویتمر امضا شود، کمپینهای انتخاباتی ایالتی و فدرالی باید استفاده از هوش مصنوعی در فرایند تولید تبلیغات سیاسی را در میشیگان اعلام کنند. قانون مذکور، همچنین استفاده از محتوای دیپفیک بدون نشانهگذاری شفاف را تا ۹۰ روز پس از انتخابات نیز ممنوع است.
این وبگاه خبری همچنین در آن بازه زمانی اعلام کرد که ایالتهای کالیفرنیا، مینه سوتا، تگزاس و واشنگتن قوانینی را تصویب کردهاند که استفاده از دیپفیک در تبلیغات سیاسی را محدود میکند. بر اساس گزارشهای منتشر شده، قوانین مشابهی نیز در ایلینویز، کنتاکی، نیوجرسی و نیویورک در دست بررسی قرار دارد.
به عقیده کارشناسان، در این میان، دو دسته از مخالفان سیاسی به صورت جدی به استفاده از این ابزارهای هوش مصنوعی برای شبیهسازی سیاستمداران علاقهمند هستند:
- دولتها و جناحهای سیاسی خواستار تشدید بیثباتی: هدف اصلی این گروه، تیرهسازی اعتبار یک نامزد و احتمالاً تغییر نتایج انتخابات به نفع خود است.
- مجرمان سایبری: این دسته از افراد با سوءاستفاده از اعتبار و نفوذ هدفشان، تلاش میکنند قربانیان را درگیر توطئههای مهندسی اجتماعی خود کنند و آنها را به اقداماتی علیه منافع خود، مانند سرمایهگذاری در ارزهای دیجیتال غیرمعتبر یا کمک به یک کمپین سیاسی جعلی وادار نمایند.
حمله به اعتبار افراد و جناحها
توانایی دیپفیکها و مدلهای زبانی هوش مصنوعی در کاهش اعتبار سیاستمداران برای تأثیرگذاری بر نتایج انتخابات، یکی از واقعیتهای تلخ عصر شبکههای اجتماعی محسوب میشود. این ابزارها قابلیت ایجاد دادههای تاریخی غیرواقعی و تقویت «اخبار جعلی» را دارند. در حالی که کمپینهای اطلاعات نادرست پدیدهای جدید به شمار نمیروند اما موعد برگزاری انتخابات، بستر ویژهای برای سازندگان و نشردهندگان اطلاعات جعلی و شایعات فراهم میآورد، زیرا رایدهندگان در این بازههای زمانی بیشتر پذیرای پیامهای سیاسی هستند. در ادامه به مرور چند نمونه اخیر از این وضعیت میپردازیم.
در انتخابات ملی لهستان در سال ۲۰۲۳، بزرگترین حزب مخالف، یک آگهی تبلیغاتی انتخاباتی منتشر کرد که کلیپهای واقعی نخستوزیر را با کلیپهای جعلی ایجاد شده توسط هوش مصنوعی ترکیب کرده بود. در همان سال، یک کلیپ صوتی جعلی از نامزد حزب کارگر بریتانیا، کییر استارمر، که در آن به کارمندانش ناسزا میگفت، در فضای مجازی میلیونها بازدید را به خود اختصاص داد. همچنین، در آستانه انتخابات ۲۰۲۴ آمریکا، شاهد دیپفیکهایی از تصاویر دستگیری دونالد ترامپ بودیم.
در همه این موارد، دیپفیکها برای تخریب اعتبار نامزدها و کاهش محبوبیت آنها در رقابتهای انتخاباتی به کار گرفته شدهاند.
سوءاستفاده از انتخابات برای منافع مالی
تنها دولتها نیستند که به انتخابات علاقه نشان میدهند؛ این رویدادها فرصتی بسیار جذاب برای مجرمان سایبری نیز فراهم میکنند. تحلیل روندهای موجود در فعالیتهای سایبری مرتبط با دیپفیکها نشان میدهد که این فناوری به چندین روش مورد بهرهبرداری قرار میگیرد.
استفاده از دیپفیک در حملات سایبری هدفمند در طول سالهای اخیر به شدت افزایش یافته است. در این موارد، مجرمان سایبری از دیپفیکها برای تقلید قانعکننده از فردی آشنا برای قربانی استفاده میکنند. هدف این گونه حملات عمدتاً بهرهبرداری مالی از طریق فریب کاربران است. بر اساس براوردهای صورت گرفته، این استراتژی در محیطهای کاری و شخصی به وفور مشاهده شده است و طیف گستردهای از فعالیتها، کلاهبرداری با جعل هویت مدیران اجرایی در ایمیلهای کاری گرفته تا کلاهبرداریهای ناظر بر روابط شخصی قربانیان را شامل میشود. موفقیت این نوع کلاهبرداریها به توانایی فریب قربانیان و القای این باور استوار است که با شخص واقعی در حال ارتباط هستند؛ در حالی که افراد در واقع با محتوای صوتی یا تصویری دستکاریشده مواجه هستند.
افزون بر این، کاربرد دیپفیکها فراتر از حملات شخصیسازیشده رفته و به کلاهبرداریهای گستردهتر نیز رسیده است. در طول سالهای اخیر شاهد مواردی هستیم که در آن مجرمان سایبری با جعل هویت یک شخصیت عمومی از جایگاه و تأثیر او برای ترویج طرحهای مالی مشکوک استفاده میکنند. در حال حاضر، نظر میرسد که عملیات کلاهبرداری ارزهای دیجیتال به گزینه محبوبی در میان مجرمان سایبری تبدیل شده باشد.
چنین کلاهبرداریهایی در همه ایام سال میتوانند رخ دهند، اما فصل انتخابات فرصت ویژهای برای مجرمان سایبری فراهم میکند تا از طریق دیپفیک سیاستمداران، رایدهندگان و طرفداران آنها را هدف قرار دهند. با نزدیک شدن به انتخابات، رایدهندگان پذیرای پیامهای بیشتری از سوی نامزدها هستند و این امر محیطی مناسب برای کلاهبرداری مالی ایجاد میکند.
ابزارهای هوش مصنوعی مولد
چشمانداز انتخابات با رشد پیچیدگی و دسترسی ابزارهای هوش مصنوعی در حال تغییر است؛ تغییری که مجرمان سایبری در فصل انتخابات برای حملات مهندسی اجتماعی مبتنی بر هوش مصنوعی از آن بهرهبرداری میکنند. ظهور ابزارهای ساده و کاربرپسند برای ایجاد دیپفیکها، به جای ابزارهای پیچیدهتر نظیر «DeepFaceLab»، این عرصه را متحول کرده است.
هوش مصنوعی مولد به مجرمان سایبری ابزارهای پیشرفتهای ارائه میدهد تا چهرههای مجازی و واقعگرایانهای از نامزدهای سیاسی بسازند. این چهرهها میتوانند رایدهندگان را فریب دهند تا به کمپینهای جعلی کمک مالی کنند، در طرحهای کلاهبرداری سرمایهگذاری نمایند یا در جمعآوری کمکهای خیریه تقلبی مشارکت داشته باشند. رویدادهایی چون ماجرای تبلیغ کارتهای «NFT» توسط دونالد ترامپ یا حمایت ایلان ماسک از ارز دیجیتال «دوجکوین»، مبین امکانپذیری چنین کلاهبرداریهایی در سطح کلان است.
با توجه به گستردگی توجه عمومی به نامزدهای انتخاباتی، مجرمان سایبری با بهرهگیری از ابزارهای هوش مصنوعی در سناریوهای مختلف تهدید، زمین حاصلخیزی برای فعالیت خود مییابند.
مدلهای زبانی بزرگ: مهندسی اجتماعی رایدهندگان در مقیاس وسیع
مدلهای زبانی بزرگ (LLMs) مانند «ChatGPT» از شرکت «OpenAI» و «Llama» متعلق به شرکت «Meta» در سالهای اخیر شاهد پیشرفتهای قابل توجهی از بهبود عملکرد و دسترسی گستردهتر گرفته تا کاهش نیازهای محاسباتی بودهاند.
پلتفرم «HuggingFace»، که بهصورت عمومی میزبان مدلهای هوش مصنوعی متنباز است، در حال حاضر بیش از یک میلیون مدل هوش مصنوعی از جمله ۳۲ هزار مدل زبانی متنباز را در خود جای داده است. این مدلها که برای نیازهای مختلفی از جمله زبانهای خارجی، تولید متن و چتباتها به کار میروند، به روی همه کاربران، از جمله مجرمان سایبری باز هستند.
جرایم دیجیتال و بهرهبرداری از مدلهای زبانی برای فعالیتهای غیرقانونی
در دنیای جرایم دیجیتال، خدمات مدلهای زبانی بزرگ به طور فزایندهای برای فعالیتهای غیرقانونی مورد استفاده قرار میگیرند. رواج این خدمات تهدیدی بالقوه برای رایدهندگان ایجاد میکند، زیرا مجرمان میتوانند از این مدلها برای طراحی کلاهبرداریهای پیچیده بهره ببرند.
نخستین گام در طراحی کلاهبرداریهای انتخاباتی شناسایی گروههای ذینفع مناسب به شمار میرود. از آن جا که رایدهندگان به شکلی فزایندهای به دو دسته تقسیم شدهاند، مجرمان تلاش میکنند تا از این شکاف اجتماعی بهرهبرداری کنند. در این فرآیند، مدلهای زبانی بزرگ به اشکال گوناگونی مورد استفاده فرار میگیرند.
- مدلهای مبتنی بر هوش مصنوعی مولد میتوانند با تحلیل پروفایلهای شبکههای اجتماعی، افرادی با علایق خاص را شناسایی کنند. مدلهای زبانی بزرگ قادرند با بررسی اطلاعات عمومی، تمایلات و ترجیهات سیاسی افراد را بر اساس فعالیتهای آنها در شبکههای اجتماعی استنتاج نمایند.
- این مدلها همچنین میتوانند در تشکیل گروههای ذینفع در شبکههای اجتماعی مؤثر باشند. به عنوان مثال، یک مجرم سایبری میتواند یک گروه فیسبوک با عنوان «نامزد X برای ریاست جمهوری - شاخه فلوریدا» ایجاد کرده و با انتشار پستهای بحثبرانگیز، قربانیان احتمالی خود را جذب کند.
مجرم ممکن است برای موفقیت یک کلاهبرداری به شبکهای از پلتفرمهای جعلی نیاز داشته باشد تا از طریق آنها به تبلیغ سیاستهای دروغین، پیامهای جعلی از یک نامزد یا جمعآوری کمکهای مالی بپردازد. این پلتفرمها به تقویت روایتهای گمراهکننده کمک میکنند. مدلهای زبانی بزرگ میتوانند بهسرعت این سایتها را بسازند و حتی از منابع شبیه به سایتهای رسمی کمپینهای انتخاباتی بهره بگیرند. علاوه بر این، مدلهای زبانی بزرگ میتوانند با بهینهسازی موتورهای جستجو، جایگاه این سایتهای جعلی را در نتایج ارتقا دهند و مشروعیت ظاهری آنها را تقویت کنند.
پیامهای شخصیسازیشده برای تأثیرگذاری بیشتر
بسیاری از رایدهندگان به دریافت ایمیلهای عمومی از سوی نامزدها که اغلب بدون هیچگونه شخصیسازی به همه رایدهندگان ارسال میشوند، عادت دارند اما مجرمان حرفهای میتوانند پیامهای فیشینگ را بهگونهای تنظیم کنند که به طور خاص برای هر قربانی مناسب و شخصی باشد. هدفگیری قربانیان در گروههای خاص، امکان ارسال پیامهای دقیقتر را فراهم میکند، زیرا موضوعات در مقطع برگزاری انتخابات معمولاً مشترک هستند. ابزارهایی مانند «ChatGPT» میتوانند با ترکیب علایق رایدهندگان، پیام جعلی و عناصر فعالیتهای اجتماعی آنها در شبکههای اجتماعی، متنهایی بسیار دقیق و هدفمند تولید کنند. این قابلیت میتواند در مقیاس وسیع و حتی به زبانهای مختلف صورت پذیرد و محتوا برای ایمیلهای فیشینگ یا اسکریپتهای ویدئوهای دیپفیک تهیه گردد.
چه باید کرد؟
با ذکر همه مواردی که در این نوشتار مورد اشاره قرار گرفت، پرسشی عمیق در ذهن شکل میگیرد. آیا امکان دارد که رایدهندگان بتوانند حقیقت را از دروغ تشخیص دهند؟
وبگاه گاردین در گزارشی به تاریخ فوریه ۲۰۲۴ درباره انتخابات آمریکا، اعلام کرد که شرکت «Midjourney»، سازنده پلتفرم مشهور هوش مصنوعی تبدیل متن به عکس، در نظر دارد استفاده از نرمافزار خود برای ساختن تصاویر سیاسی جو بایدن و دونالد ترامپ را ممنوع کند. این رسانه بریتانیایی همچنین اذعان داشت که این اقدام، بخشی از تلاشی شرکت مذکور برای جلوگیری از انتشار اطلاعات نادرست در بحبوحه انتخابات ریاست جمهوری ۲۰۲۴ آمریکا بهشمار میرود.
یکی از ابتکارات برای کاهش آسیبهای احتمالی یک دیپفیک، نشانهگذاری تصاویر مبتنی بر هوش مصنوعی است. این نوع از برچسبگذاری به افراد اجازه میدهد که خالق تصویر، تغییرات اعمالشده و منبع آنها را شناسایی نموده و به این ترتیب، دیپفیکها را تشخیص دهند. در این میان، خبر امیدوارکننده این است که بازیگران بزرگ فناوری مانند «OpenAI»، متا، گوگل و آمازون پیش از این بارها آمادگی خود برای مشارکت در چنین طرحهایی را اعلام کردهاند.
علاوه بر این، شرکت «Trend Micro» اخیراً یک اپلیکیشن رایگان به نام «Trend Micro Deepfake Inspector» ارائه کرده است که مخصوص تشخیص تماسهای ویدئویی دیپفیک طراحی شده و میتواند مکالمات جعلی را در لحظه شناسایی کند. این ابزار میتواند به شناسایی مؤثر محتوای جعلی صوتی مبتنی بر هوش مصنوعی منجر شود.
به زعم بسیاری از کارشناسان، در آینده همچنین ممکن است شاهد تعهداتی از سوی سیاستمداران باشیم که از شبکههای اجتماعی برای درخواست کمک مالی یا تبلیغات سرمایهگذاری استفاده نکنند. با این حال، این تعهدات بهطور کامل تهدید دیپفیکهای مجرمانه را از بین نمیبرد، چرا که افراد به صورت طبیعی تمایل به اعتماد دارند.
سخن پایانی
همانطور که پیشتر و بارها در گزارشهای مختلف به آثار مخرب دیپ فیکها اشاره شده، نمیتوان از تأثیرات سیاسی فزاینده این ابزار در ایجاد اخلال در فرایند انتخابات چشم پوشی کرد. امری که میتواند طی سالهای آینده ورای انتخابات آمریکا، در هر نقطه دیگری جهان نیز رقم بخورد.
از سوی دیگر، پیشرفتهای هوش مصنوعی ابزارهای پیشرفتهای را در اختیار مجرمان سایبری قرار میدهد تا اهداف خود را شناسایی، آنها را دستکاری و به شکلی قانعکننده چهرههای عمومی معتبر را برای اجرای کلاهبرداریها جعل کنند. پیچیدگی و مقرون بهصرفه بودن روزافزون این ابزارهای آماده به کار نشان میدهد که احتمالاً استفاده از آنها برای بهرهبرداری مالی از فصل انتخابات افزایش خواهد یافت.
بنابراین، این موضوع از اهمیت بسیاری برای مصرفکنندگان و رایدهندگان برخوردار است. پیچیدگی این تهدیدات و تأثیر احتمالی آن بر رایدهندگان، اهمیت آگاهی و احتیاط در این حوزه را دوچندان میکند. حتی اگر برخی بازیگران به دنبال اخلال در نتایج انتخابات باشند، سایر مجرمان سایبری ممکن است تنها بهدنبال فریب قربانیان باشند.