در دنیای بهشدت متصل امروز، سرعت انتشار اطلاعات اغلب از توانایی ما در راستیآزمایی پیشی میگیرد. دیگر خبر جعلی، صرفاً دروغی ساده نیست بلکه یک پدیده پیچیده است که موجودیت نهادهای اجتماعی و حتی سلامت روان فردی ما را تهدید میکند. قلب تپنده این تحول، ظهور قدرتمند هوش مصنوعی است.
هوش مصنوعی بهعنوان یک شمشیر دولبه، همزمان هم مشکل را تشدید کرده و هم کلید حل آن را در اختیار دارد. آیا میتوان پذیرفت فناوریای که میتواند محتوایی آنچنان واقعی (دیپفیکها) خلق کند که حتی دقیقترین چشمها را فریب میدهد، اکنون در نقش یک ناجی ظاهر شود؟ این تناقض، ما را به نقطه عطف مهمی در تاریخ ارتباطات هدایت میکند. ما در آستانه مواجهه با واقعیتی هستیم که در آن مرزهای فریب و حقیقت چنان تار شده که اتکای صرف به حواس انسانی دیگر کافی نیست. بحث اصلی اینجاست: آیا هوش مصنوعی صرفاً تهدیدی است که باید کنترل شود، یا یک فرصت است که باید برای نجات اکوسیستم اطلاعاتی از آن استفاده کرد؟
در ادامه، ما به این دوگانگی خواهیم پرداخت تا دریابیم که آیا میتوان به هوش مصنوعی اعتماد کرد تا مشکلی که خود در تشدید آن دخیل بوده است را حل کند.
هوش مصنوعی و چرخه اخبار جعلی؛ از تولید تا باور
هوش مصنوعی نه تنها زمینه را برای تولید محتوای فریبنده فراهم کرده، بلکه با دستکاری الگوهای انتشار و دریافت اطلاعات، به یک عامل حیاتی در تشدید بحران اخبار جعلی تبدیل شده است. این تهدید از ابعاد مختلفی قابل بررسی است.
پایان واقعیت؛ دیپ فیک و اخبار جعلی
دیپ فیک (Deep Fake) یکی از خطرات جدی و نگران کننده در عصر دیجیتال و هوش مصنوعی است که بشریت را تهدید می کند. این مفهوم به استفاده از تکنیکها و الگوریتمهای پیشرفته هوش مصنوعی برای ایجاد محتوای جعلی اشاره دارد که به نظر واقعی و قابل تصور می رسد. دیپ فیک میتواند شامل تصاویر، صداها، ویدئوها و حتی متنهایی باشد که با استفاده از الگوریتمهای هوش مصنوعی به طور واقعگرایانه تولید شدهاند. یکی از بزرگترین خطرات دیپفیک، تضعیف قابلیت اعتماد عمومی است.
با انتشار ویدئوها و تصاویر جعلی افراد میتوانند به آسانی از محتوای معقولانه و واقعی جدا شوند و به ترویج اطلاعات غلط و نادرست پرداخته و در نتیجه باورها و عقاید جامعه را تحت تأثیر قرار دهند. همچنین دیپفیک میتواند بر زندگی شخصیتهای عمومی و حتی افراد عادی تأثیر بگذارد. با استفاده از این تکنولوژی میتوان تصاویر و ویدئوهایی تولید کرد که واقعی به نظر برسند و در نتیجه شخصیتها را در موقعیتها و رویدادهایی نمایش دهند که در واقع وجود ندارند. این میتواند باعث تحقیر، آزار و اذیت شخصیتها شده و در نتیجه خسارت جدی به جامعه وارد کند.
الگوریتمهای هوش مصنوعی اگرچه کمککننده هستند، ولی نمیتوانند به تنهایی و با دقتی صددرصدی اخبار جعلی را شناسایی کنند، چرا که دقت این الگوریتمها محدود است و تا حد زیادی قادر نیستند زمینههای فرهنگی اجتماعی و زبانی مختلف را در ارزیابیهای خود دخیل کنند
ارتش نامرئی؛ هوش مصنوعی و رباتها
علاوه بر دستکاری و تولید محتوا توسط دیپفیک، هوش مصنوعی در توزیع محتوا نیز از طریق رباتها نقش دارد.
علاوه بر میلیاردها انسان، میلیونها ربات کاربر شبکههای اجتماعی وجود دارند که از رسانههای اجتماعی استفاده میکنند. رسانههای اجتماعی به خانه امن میلیونها ربات اجتماعی تبدیل شدهاند که اخبار جعلی را منتشر میکنند. تحقیقات نشان میدهد که در سال ۲۰۱۷، بیش از ۱۹۰ میلیون ربات در شبکههای اجتماعی جولان میدادند. اگر آن روز ۸.۵ درصد توییتر در دست رباتها بود، امروز با پیشرفت هوش مصنوعی، احتمالاً با ارتشی میلیاردی طرف هستیم که تشخیصشان از انسانهای واقعی، تقریباً غیرممکن شده است. هوش مصنوعی به رباتها اجازه میدهد تا رفتار کاربران اینترنتی مانند الگوهای ارسال را شبیهسازی کنند که به انتشار اخبار جعلی کمک میکند.
الگوریتمها چطور ما را ایزوله میکنند؟
این بخش را باید با استفاده از نظریه «حباب فیلتر» تبیین کنیم. نظریه حباب فیلتر به دیدگاهی اشاره دارد که بر اساس آن فناوریهای ارتباطی به خصوص شبکههای اجتماعی برای کاربرانی که از آنها استفاده میکنند، نوعی حباب اطلاعاتی ایجاد میکنند. به این معنا که الگوریتمهای هوش مصنوعی استفاده شده در این فناوریها به صورت خودکار برای هر کاربر، محتوا و اخباری را به نمایش می گذارند که بر اساس سلیقه، نظرها و رفتارهای آن کاربر جذاب به نظر میرسد.
این حباب اطلاعاتی منجر به تقویت دیدگاههای قبلی و جلوگیری از دسترسی به دیدگاههای متفاوت و متنوعتر میشود. در واقع این نظریه بر این اصل تکیه دارد که هر کاربر با توجه به نظرها و سلیقه شخصی خود، اخبار و محتواهایی را میخواهد که با دیدگاهش سازگار باشد. اما این مساله به نوعی به کاهش تنوع اطلاعاتی، تشدید تفاوتهای فرهنگی و سیاسی و حتی افزایش اخبار جعلی منجر میشود. زیرا افراد درون حباب اطلاعاتی خود عمدتاً با محتوایی روبهرو میشوند که دیدگاههای قبلیشان را تأیید میکند و در نتیجه کمتر با اطلاعات نقادانه یا مخالف مواجه میشوند.
روی دیگر سکه؛ هوش مصنوعی به عنوان ابزار کشف حقیقت
اما این تنها یک روی سکه هوش مصنوعی است. این فناوری فقط یک تهدید نیست، بلکه تنها ابزاری است که قدرت و سرعت کافی برای مقابله با این حجم از اطلاعات را دارد. هوش مصنوعی میتواند در کسری از ثانیه هزاران خبر را بررسی کند و با دقتی که روزبهروز بیشتر میشود، درست را از نادرست تشخیص دهد.
حلاجی دنیایی از دادهها
راهکار نهایی نه در طرد و نه در پذیرش بی چون و چرای هوش مصنوعی است. راهکار شناسایی اخبار جعلی در همافزایی هوش مصنوعی و هوش انسانی نهفته است. ما به سرعت و دقت الگوریتمها برای غربالگری اولیه نیاز داریم اما قضاوت نهایی در موارد پیچیده و درک پیامدهای اجتماعی، همچنان نیازمند نظارت و تفکر انتقادی انسان است
الگوریتمهای هوش مصنوعی میتوانند حجم عظیمی از دادهها را به سرعت و با دقت بالا پردازش کنند و اخبار جعلی را با بررسی عواملی مانند سبک نگارش، منبع انتشار و تناقض با اطلاعات موثق شناسایی کنند. هوش مصنوعی همچنین به مرور زمان و با جمعآوری دادههای بیشتر میتواند در تشخیص اخبار جعلی دقیقتر عمل کند. الگوریتمها میتوانند با شناسایی الگوهای جدید در اخبار جعلی و بهروزرسانی مداوم دانش خود با جدیدترین روشهای فریبکاری سازگار شوند. از سوی دیگر، استفاده از هوش مصنوعی برای تشخیص اخبار نادرست، نیاز به بررسی دستی تک تک اخبار توسط انسان را کاهش میدهد.
از این رو با بررسی دیدگاههای محققان و پژوهشهای انجام شده در زمینه تشخیص اخبار جعلی، چهار رویکرد برای بررسی و تشخیص اخبار جعلی شناسائی شده که فناوری هوش مصنوعی در هر چهار دسته با خودکارسازی فرایند بررسی، کاربرد و نقش آفرینی برجستهای داشته است. این چهار رویکرد عبارتند از: (۱) دانش نادرستی که اخبار را منتقل میکند؛ (۲) سبک نوشتن یا نوع محتوای اخبار (۳) الگوهای انتشار یا رفتارهای اجتماعی اخبار؛ (۴) اعتبار منبع اخبار.
یادگیری ماشین (Machine Learning)
یادگیری ماشین یکی از شاخههای اصلی هوش مصنوعی است که به سیستمها امکان میدهد با بررسی دادهها و تجربههای گذشته، الگوها را شناسایی کرده و بدون برنامهریزی مستقیم، عملکرد خود را بهبود دهند. همین توانایی باعث شده است از این فناوری بهعنوان یکی از ابزارهای مهم در مقابله با اخبار جعلی استفاده شود.
برای تشخیص اخبار جعلی، روشهای مختلفی مبتنی بر یادگیری ماشین به کار گرفته میشود. برخی از این روشها روی متن خبر تمرکز دارند و با تحلیل شیوه نگارش، انتخاب واژهها و ساختار زبانی، تلاش میکنند نشانههای خبر جعلی را شناسایی کنند. روشهای دیگر با استفاده از فناوری پردازش زبان طبیعی، معنای جملات و فضای کلی خبر را بررسی میکنند تا مشخص شود آیا محتوای آن قابل اعتماد است یا خیر. بهطور کلی، سیستمهای هوش مصنوعی برای تشخیص اخبار جعلی از سه نوع اطلاعات استفاده میکنند:
دادههای مبتنی بر محتوا: شامل متن تیتر، بدنه خبر، تصاویر و ویدئوها
دادههای زمینه اجتماعی: شامل پروفایل کاربران، روابط دوستی، نظرات و سوابق فعالیت
دادههای ساختار شبکه: اطلاعات مربوط به نحوه تعامل کاربران با یکدیگر و ساختار کلی شبکه اجتماعی.
ترکیب این اطلاعات به سیستمها کمک میکند تا با دقت بیشتری اخبار جعلی را شناسایی کنند؛ هرچند همچنان نظارت انسانی نقش مهمی در کنار این ابزارها دارد.
نتیجهگیری
هوش مصنوعی در اکوسیستم اطلاعاتی امروز، نقشی پارادوکسیکال و دوگانه ایفا میکند. از یک سو، این فناوری به عنوان یک تهدید جدی، با ابزارهایی نظیر «دیپفیک» و «رباتهای اجتماعی»، سرعت، حجم و پیچیدگی تولید اخبار جعلی را به سطحی بیسابقه رسانده است؛ بهگونهای که مرز میان حقیقت و فریب بیش از پیش کمرنگ شده است. از سوی دیگر، همین فناوری به عنوان یک فرصت، قدرتمندترین ابزار ما برای پایش حجم عظیم دادهها و شناسایی الگوهای فریب در کسری از ثانیه محسوب میشود.
برخی از مقررات جهانی، پلتفرمها را به بهره بردن از هوش مصنوعی برای شناسایی و حذف محتوای نامناسب و اخبار جعلی تشویق میکنند. اما سؤال این جاست که آیا هوش مصنوعی می تواند مشکل اخبار جعلی در شبکههای اجتماعی را حل کند؟ باید پذیرفت که الگوریتمهای هوش مصنوعی نمیتوانند به تنهایی این کار را انجام دهند؛ زیرا دقت این الگوریتمها محدود است و تا حد زیادی نمیتوانند زمینههای فرهنگی اجتماعی و زبانی مختلف را در ارزیابیهای خود دخیل کنند و چارهای جز کمک گرفتن از نیروی انسانی آموزش دیده نیست. حتما به مرور زمان الگوریتمهای شناسایی اخبار جعلی دقیقتر میشوند؛ اما همچنان به همراهی انسانها نیازمندند تا به درستی موارد را تشخیص داده و شناسایی کنند.
بنابراین، راهکار نهایی نه در طرد هوش مصنوعی و نه در پذیرش بی چون و چرای آن است؛ بلکه در همافزایی هوش مصنوعی و هوش انسانی نهفته است. ما به سرعت و دقت الگوریتمها برای غربالگری اولیه نیاز داریم، اما قضاوت نهایی در موارد پیچیده و درک پیامدهای اجتماعی، همچنان نیازمند نظارت و تفکر انتقادی انسان است.
منابع
۱- میرزاوند، ا. و همکاران (۱۴۰۲)، «خطرات هوش مصنوعی»، مجموعه مقالات شانزدهمین همایش ملی پژوهشهای مدیریت و علوم انسانی در ایران، تهران: موسسه پژوهشی مدیریت مدبر.
۲- ابراهیمی، س. ا. و همکاران (۱۴۰۳)، «سنتز پژوهی دلایل انتشار و گرایش به اخبار جعلی در رسانههای اجتماعی»، فصلنامه علمی جامعه، فرهنگ و رسانه،۱۳ (۵)، ۱۶۹-۱۸۸.
۳- اخگری، م. و همکار (۱۴۰۲)، «کاربرد هوش مصنوعی در راستیآزمایی اخبار: تشخیص اخبار جعلی با استفاده از متن خبر و اطلاعات منابع منتشر کننده خبر»، پژوهشهای رسانه و ارتباطات، ۱۱ (۲۱)، ۲۴۴-۲۶۸.
۴-ترسلی، الف (۱۴۰۳)، «کاربرد هوش مصنوعی در تشخیص اخبار جعلی»، فصلنامه آماد و فناوری دفاعی، ۷(۲)، ۸۵-۱۱۲.
۵-ترسلی، الف (۱۴۰۳)، «فنون مقابله و نبرد هوشمندانه با اخبار جعلی در عصر هوش مصنوعی»، فصلنامه شناختپژوهی مطالعات سیاسی، ۱(۲)، ۷۰-۹۲.
۶- روشندل اربطانی، ط. (۱۴۰۲)، «چالش اخبار جعلی و شبکههای اجتماعی»، بررسیهای مدیریت رسانه، ۲(۲)، ۱۵۶-۱۵۷.
۷- Berrondo-Otermin, M., & Sarasa-Cabezuelo, A. (۲۰۲۳). Application of Artificial Intelligence Techniques to Detect Fake News: A Review. Electronics, ۱۲(۲۴), ۵۰۴۱.