شناسهٔ خبر: 76352363 - سرویس اجتماعی
نسخه قابل چاپ منبع: ایرنا | لینک خبر

هوش مصنوعی مقابل اخبار جعلی؛ یار شاطر یا بار خاطر؟

تهران- ایرنا- هوش مصنوعی در اکوسیستم اطلاعاتی امروز، نقشی دوگانه ایفا می‌کند. این فناوری از سویی با ابزارهایی چون «دیپ‌فیک» و «ربات‌های اجتماعی»، سرعت، حجم و پیچیدگی تولید اخبار جعلی را به سطحی بی‌سابقه رسانده و از سوی دیگر، قدرتمندترین ابزار را برای پایش حجم عظیم داده‌ها و شناسایی الگوهای فریب در اختیار ما قرار داده است.

صاحب‌خبر -

در دنیای به‌شدت متصل امروز، سرعت انتشار اطلاعات اغلب از توانایی ما در راستی‌آزمایی پیشی می‌گیرد. دیگر خبر جعلی، صرفاً دروغی ساده نیست بلکه یک پدیده پیچیده است که موجودیت نهادهای اجتماعی و حتی سلامت روان فردی ما را تهدید می‌کند. قلب تپنده این تحول، ظهور قدرتمند هوش مصنوعی است.

هوش مصنوعی به‌عنوان یک شمشیر دولبه، همزمان هم مشکل را تشدید کرده و هم کلید حل آن را در اختیار دارد. آیا می‌توان پذیرفت فناوری‌ای که می‌تواند محتوایی آنچنان واقعی (دیپ‌فیک‌ها) خلق کند که حتی دقیق‌ترین چشم‌ها را فریب می‌دهد، اکنون در نقش یک ناجی ظاهر شود؟ این تناقض، ما را به نقطه عطف مهمی در تاریخ ارتباطات هدایت می‌کند. ما در آستانه مواجهه با واقعیتی هستیم که در آن مرزهای فریب و حقیقت چنان تار شده که اتکای صرف به حواس انسانی دیگر کافی نیست. بحث اصلی اینجاست: آیا هوش مصنوعی صرفاً تهدیدی است که باید کنترل شود، یا یک فرصت است که باید برای نجات اکوسیستم اطلاعاتی از آن استفاده کرد؟

در ادامه، ما به این دوگانگی خواهیم پرداخت تا دریابیم که آیا می‌توان به هوش مصنوعی اعتماد کرد تا مشکلی که خود در تشدید آن دخیل بوده است را حل کند.

هوش مصنوعی و چرخه اخبار جعلی؛ از تولید تا باور

هوش مصنوعی نه تنها زمینه را برای تولید محتوای فریبنده فراهم کرده، بلکه با دستکاری الگوهای انتشار و دریافت اطلاعات، به یک عامل حیاتی در تشدید بحران اخبار جعلی تبدیل شده است. این تهدید از ابعاد مختلفی قابل بررسی است.

پایان واقعیت؛ دیپ فیک و اخبار جعلی

دیپ فیک (Deep Fake) یکی از خطرات جدی و نگران کننده در عصر دیجیتال و هوش مصنوعی است که بشریت را تهدید می کند. این مفهوم به استفاده از تکنیک‌ها و الگوریتم‌های پیشرفته هوش مصنوعی برای ایجاد محتوای جعلی اشاره دارد که به نظر واقعی و قابل تصور می رسد. دیپ فیک می‌تواند شامل تصاویر، صداها، ویدئوها و حتی متن‌هایی باشد که با استفاده از الگوریتم‌های هوش مصنوعی به طور واقع‌گرایانه تولید شده‌اند. یکی از بزرگترین خطرات دیپ‌فیک، تضعیف قابلیت اعتماد عمومی است.

با انتشار ویدئوها و تصاویر جعلی افراد می‌توانند به آسانی از محتوای معقولانه و واقعی جدا شوند و به ترویج اطلاعات غلط و نادرست پرداخته و در نتیجه باورها و عقاید جامعه را تحت تأثیر قرار دهند. همچنین دیپ‌فیک می‌تواند بر زندگی شخصیت‌های عمومی و حتی افراد عادی تأثیر بگذارد. با استفاده از این تکنولوژی می‌توان تصاویر و ویدئوهایی تولید کرد که واقعی به نظر برسند و در نتیجه شخصیت‌ها را در موقعیت‌ها و رویدادهایی نمایش دهند که در واقع وجود ندارند. این می‌تواند باعث تحقیر، آزار و اذیت شخصیت‌ها شده و در نتیجه خسارت جدی به جامعه وارد کند.

الگوریتم‌های هوش مصنوعی اگرچه کمک‌کننده هستند، ولی نمی‌توانند به تنهایی و با دقتی صددرصدی اخبار جعلی را شناسایی کنند، چرا که دقت این الگوریتم‌ها محدود است و تا حد زیادی قادر نیستند زمینه‌های فرهنگی اجتماعی و زبانی مختلف را در ارزیابی‌های خود دخیل کنند

ارتش نامرئی؛ هوش مصنوعی و ربات‌ها

علاوه بر دستکاری و تولید محتوا توسط دیپ‌فیک، هوش مصنوعی در توزیع محتوا نیز از طریق ربات‌ها نقش دارد.

علاوه بر میلیاردها انسان، میلیون‌ها ربات کاربر شبکه‌های اجتماعی وجود دارند که از رسانه‌های اجتماعی استفاده می‌کنند. رسانه‌های اجتماعی به خانه‌ امن میلیون‌ها ربات اجتماعی تبدیل شده‌اند که اخبار جعلی را منتشر می‌کنند. تحقیقات نشان می‌دهد که در سال ۲۰۱۷، بیش از ۱۹۰ میلیون ربات در شبکه‌های اجتماعی جولان می‌دادند. اگر آن روز ۸.۵ درصد توییتر در دست ربات‌ها بود، امروز با پیشرفت هوش مصنوعی، احتمالاً با ارتشی میلیاردی طرف هستیم که تشخیص‌شان از انسان‌های واقعی، تقریباً غیرممکن شده است. هوش مصنوعی به ربات‌ها اجازه می‌دهد تا رفتار کاربران اینترنتی مانند الگوهای ارسال را شبیه‌سازی کنند که به انتشار اخبار جعلی کمک می‌کند.

الگوریتم‌ها چطور ما را ایزوله می‌کنند؟

این بخش را باید با استفاده از نظریه «حباب فیلتر» تبیین کنیم. نظریه حباب فیلتر به دیدگاهی اشاره دارد که بر اساس آن فناوری‌های ارتباطی به خصوص شبکه‌های اجتماعی برای کاربرانی که از آنها استفاده می‌کنند، نوعی حباب اطلاعاتی ایجاد می‌کنند. به این معنا که الگوریتم‌های هوش مصنوعی استفاده شده در این فناوری‌ها به صورت خودکار برای هر کاربر، محتوا و اخباری را به نمایش می گذارند که بر اساس سلیقه، نظرها و رفتارهای آن کاربر جذاب به نظر می‌رسد.

این حباب اطلاعاتی منجر به تقویت دیدگاه‌های قبلی و جلوگیری از دسترسی به دیدگاه‌های متفاوت و متنوع‌تر می‌شود. در واقع این نظریه بر این اصل تکیه دارد که هر کاربر با توجه به نظرها و سلیقه شخصی خود، اخبار و محتواهایی را می‌خواهد که با دیدگاهش سازگار باشد. اما این مساله به نوعی به کاهش تنوع اطلاعاتی، تشدید تفاوت‌های فرهنگی و سیاسی و حتی افزایش اخبار جعلی منجر می‌شود. زیرا افراد درون حباب اطلاعاتی خود عمدتاً با محتوایی روبه‌رو می‌شوند که دیدگاه‌های قبلی‌شان را تأیید می‌کند و در نتیجه کمتر با اطلاعات نقادانه یا مخالف مواجه می‌شوند.

روی دیگر سکه؛ هوش مصنوعی به عنوان ابزار کشف حقیقت

اما این تنها یک روی سکه هوش مصنوعی است. این فناوری فقط یک تهدید نیست، بلکه تنها ابزاری است که قدرت و سرعت کافی برای مقابله با این حجم از اطلاعات را دارد. هوش مصنوعی می‌تواند در کسری از ثانیه هزاران خبر را بررسی کند و با دقتی که روزبه‌روز بیشتر می‌شود، درست را از نادرست تشخیص دهد.

حلاجی دنیایی از داده‌ها

راهکار نهایی نه در طرد و نه در پذیرش بی چون و چرای هوش مصنوعی است. راهکار شناسایی اخبار جعلی در هم‌افزایی هوش مصنوعی و هوش انسانی نهفته است. ما به سرعت و دقت الگوریتم‌ها برای غربالگری اولیه نیاز داریم اما قضاوت نهایی در موارد پیچیده و درک پیامدهای اجتماعی، همچنان نیازمند نظارت و تفکر انتقادی انسان است

الگوریتم‌های هوش مصنوعی می‌توانند حجم عظیمی از داده‌ها را به سرعت و با دقت بالا پردازش کنند و اخبار جعلی را با بررسی عواملی مانند سبک نگارش، منبع انتشار و تناقض با اطلاعات موثق شناسایی کنند. هوش مصنوعی همچنین به مرور زمان و با جمع‌آوری داده‌های بیشتر می‌تواند در تشخیص اخبار جعلی دقیق‌تر عمل کند. الگوریتم‌ها می‌توانند با شناسایی الگوهای جدید در اخبار جعلی و به‌روزرسانی مداوم دانش خود با جدیدترین روش‌های فریب‌کاری سازگار شوند. از سوی دیگر، استفاده از هوش مصنوعی برای تشخیص اخبار نادرست، نیاز به بررسی دستی تک تک اخبار توسط انسان را کاهش می‌دهد.

از این رو با بررسی دیدگاه‌های محققان و پژوهش‌های انجام شده در زمینه تشخیص اخبار جعلی، چهار رویکرد برای بررسی و تشخیص اخبار جعلی شناسائی شده که فناوری هوش مصنوعی در هر چهار دسته با خودکارسازی فرایند بررسی، کاربرد و نقش آفرینی برجسته‌ای داشته است. این چهار رویکرد عبارتند از: (۱) دانش نادرستی که اخبار را منتقل می‌کند؛ (۲) سبک نوشتن یا نوع محتوای اخبار (۳) الگوهای انتشار یا رفتارهای اجتماعی اخبار؛ (۴) اعتبار منبع اخبار.

یادگیری ماشین (Machine Learning)

یادگیری ماشین یکی از شاخه‌های اصلی هوش مصنوعی است که به سیستم‌ها امکان می‌دهد با بررسی داده‌ها و تجربه‌های گذشته، الگوها را شناسایی کرده و بدون برنامه‌ریزی مستقیم، عملکرد خود را بهبود دهند. همین توانایی باعث شده است از این فناوری به‌عنوان یکی از ابزارهای مهم در مقابله با اخبار جعلی استفاده شود.

برای تشخیص اخبار جعلی، روش‌های مختلفی مبتنی بر یادگیری ماشین به کار گرفته می‌شود. برخی از این روش‌ها روی متن خبر تمرکز دارند و با تحلیل شیوه نگارش، انتخاب واژه‌ها و ساختار زبانی، تلاش می‌کنند نشانه‌های خبر جعلی را شناسایی کنند. روش‌های دیگر با استفاده از فناوری پردازش زبان طبیعی، معنای جملات و فضای کلی خبر را بررسی می‌کنند تا مشخص شود آیا محتوای آن قابل اعتماد است یا خیر. به‌طور کلی، سیستم‌های هوش مصنوعی برای تشخیص اخبار جعلی از سه نوع اطلاعات استفاده می‌کنند:

داده‌های مبتنی بر محتوا: شامل متن تیتر، بدنه خبر، تصاویر و ویدئوها

داده‌های زمینه اجتماعی: شامل پروفایل کاربران، روابط دوستی، نظرات و سوابق فعالیت

داده‌های ساختار شبکه: اطلاعات مربوط به نحوه تعامل کاربران با یکدیگر و ساختار کلی شبکه اجتماعی.

ترکیب این اطلاعات به سیستم‌ها کمک می‌کند تا با دقت بیشتری اخبار جعلی را شناسایی کنند؛ هرچند همچنان نظارت انسانی نقش مهمی در کنار این ابزارها دارد.

نتیجه‌گیری

هوش مصنوعی در اکوسیستم اطلاعاتی امروز، نقشی پارادوکسیکال و دوگانه ایفا می‌کند. از یک سو، این فناوری به عنوان یک تهدید جدی، با ابزارهایی نظیر «دیپ‌فیک» و «ربات‌های اجتماعی»، سرعت، حجم و پیچیدگی تولید اخبار جعلی را به سطحی بی‌سابقه رسانده است؛ به‌گونه‌ای که مرز میان حقیقت و فریب بیش از پیش کمرنگ شده است. از سوی دیگر، همین فناوری به عنوان یک فرصت، قدرتمندترین ابزار ما برای پایش حجم عظیم داده‌ها و شناسایی الگوهای فریب در کسری از ثانیه محسوب می‌شود.

برخی از مقررات جهانی، پلتفرم‌ها را به بهره بردن از هوش مصنوعی برای شناسایی و حذف محتوای نامناسب و اخبار جعلی تشویق می‌کنند. اما سؤال این جاست که آیا هوش مصنوعی می تواند مشکل اخبار جعلی در شبکه‌های اجتماعی را حل کند؟ باید پذیرفت که الگوریتم‌های هوش مصنوعی نمی‌توانند به تنهایی این کار را انجام دهند؛ زیرا دقت این الگوریتم‌ها محدود است و تا حد زیادی نمی‌توانند زمینه‌های فرهنگی اجتماعی و زبانی مختلف را در ارزیابی‌های خود دخیل کنند و چاره‌ای جز کمک گرفتن از نیروی انسانی آموزش دیده نیست. حتما به مرور زمان الگوریتم‌های شناسایی اخبار جعلی دقیق‌تر می‌شوند؛ اما همچنان به همراهی انسان‌ها نیازمندند تا به درستی موارد را تشخیص داده و شناسایی کنند.

بنابراین، راهکار نهایی نه در طرد هوش مصنوعی و نه در پذیرش بی چون و چرای آن است؛ بلکه در هم‌افزایی هوش مصنوعی و هوش انسانی نهفته است. ما به سرعت و دقت الگوریتم‌ها برای غربالگری اولیه نیاز داریم، اما قضاوت نهایی در موارد پیچیده و درک پیامدهای اجتماعی، همچنان نیازمند نظارت و تفکر انتقادی انسان است.

منابع

۱- میرزاوند، ا. و همکاران (۱۴۰۲)، «خطرات هوش مصنوعی»، مجموعه مقالات شانزدهمین همایش ملی پژوهش‌های مدیریت و علوم انسانی در ایران، تهران: موسسه پژوهشی مدیریت مدبر.

۲- ابراهیمی، س. ا. و همکاران (۱۴۰۳)، «سنتز پژوهی دلایل انتشار و گرایش به اخبار جعلی در رسانه‌های اجتماعی»، فصلنامه علمی جامعه، فرهنگ و رسانه،۱۳ (۵)، ۱۶۹-۱۸۸.

۳- اخگری، م. و همکار (۱۴۰۲)، «کاربرد هوش مصنوعی در راستی‌آزمایی اخبار: تشخیص اخبار جعلی با استفاده از متن خبر و اطلاعات منابع منتشر کننده خبر»، پژوهش‌های رسانه و ارتباطات، ۱۱ (۲۱)، ۲۴۴-۲۶۸.

۴-ترسلی، الف (۱۴۰۳)، «کاربرد هوش مصنوعی در تشخیص اخبار جعلی»، فصلنامه آماد و فناوری دفاعی، ۷(۲)، ۸۵-۱۱۲.

۵-ترسلی، الف (۱۴۰۳)، «فنون مقابله و نبرد هوشمندانه با اخبار جعلی در عصر هوش مصنوعی»، فصلنامه شناخت‌پژوهی مطالعات سیاسی، ۱(۲)، ۷۰-۹۲.

۶- روشندل اربطانی، ط. (۱۴۰۲)، «چالش اخبار جعلی و شبکه‌های اجتماعی»، بررسی‌های مدیریت رسانه، ۲(۲)، ۱۵۶-۱۵۷.

۷- Berrondo-Otermin, M., & Sarasa-Cabezuelo, A. (۲۰۲۳). Application of Artificial Intelligence Techniques to Detect Fake News: A Review. Electronics, ۱۲(۲۴), ۵۰۴۱.