شناسهٔ خبر: 76656603 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: شفقنا | لینک خبر

یک پژوهشگر حوزه سواد رسانه‌ای: جعل عميق، متهم اصلی مرگ حقیقت در عصر پسا حقیقت است/ در حوزه رسانه، جعل عمیق کار راستی‌آزمایی را پیچیده‌تر کرده است/ اتاق‌های خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند

صاحب‌خبر -

شفقنا رسانه– امروزه با پیشرفت فناوری دیپ‌فیک، تصاویر و ویدیوهای جعلی فراوانی در شبکه‌های اجتماعی منتشر می‌شوند و تشخیص صحت آن‌ها روزبه‌روز سخت‌تر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ سید غلامرضا فلسفی، پژوهشگر حوزه سواد رسانه‌ای می گوید: جعل عميق در قالب محتوای واقع‌نما، ديواري بلند از بي‌اعتمادي بین واقعیت و خیال ساخته است و به شك‌گرايي نسبت به واقعیت انجاميده است، جایی که افراد حتی به محتوای واقعی هم در عين بي‌تفاوتي ناباورانه می‌نگرند. این دگرگونی نه‌تنها فنی است، بلکه روان‌شناختی و اجتماعی نیز محسوب مي‌شود چراكه محتواهای حاصل از جعل عميق‌ می‌توانند حافظة افراد را دستکاری و خاطرات جعلی ایجاد کنند.

 

متن گفتگوی شفقنا رسانه با سید غلامرضا فلسفی، پژوهشگر حوزه سواد رسانه‌ای و نویسنده کتاب «پنج گفتار درباره اخبار جعلي» را در ادامه بخوانید…

 

گسترش دیپ‌فیک بنیان‌های ادراک ما را از واقعیت زیر سؤال برده است

جعل عمیق در قالب محتوای واقع‌نما، دیواری بلند از بی‌اعتمادی بین واقعیت و خیال ساخته است

گسترش دیپ‌فیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را به‌عنوان سند قابل‌اتکا تضعیف کرده است؟

گسترش دیپ‌فیک (كه با معادل‌هايي چون جعل عميق، جعل عمقي و جعل ژرف از آن ياد می‌شود) بنیان‌های ادراک ما را از واقعیت زیر سؤال ‌برده است و بر اين اساس یکی از پیچیدگی‌های اساسی عصر دیجیتال به‌خصوص بعد از انقلاب هوش مصنوعی را رقم‌زده است. جعل عميق به محتواهایی جعلی اطلاق مي‌شود که با هوش مصنوعی ساخته می‌شوند و تشخیص آن‌ها از محتوای واقعی بسيار دشوار است. این فناوری نه‌تنها بر رسانه‌ها تأثیر گذاشته است، بلکه مفهوم حقیقت بصری یعنی ایده‌ای که بر اساس آن آنچه می‌بینیم را در مقام شواهد غیرقابل‌انکار می‌پذیریم، به‌طور اساسی دگرگون کرده است.

در گذشته، عکس و فیلم حرمت داشتند و چون شاهدان عینی عمل می‌کردند؛ به‌طور مثال یک عکس می‌توانست یک رویداد را اثبات کند و فیلم‌ها شواهدی محکم براي گزارش‌های خبری بودند؛ اما با گسترش جعل عميق این کارکرد شکننده شده است. جعل عميق در قالب محتوای واقع‌نما، ديواري بلند از بي‌اعتمادي بین واقعیت و خیال ساخته است و به شك‌گرايي نسبت به واقعیت انجاميده است، جایی که افراد حتی به محتوای واقعی هم در عين بي‌تفاوتي ناباورانه می‌نگرند. این دگرگونی نه‌تنها فنی است، بلکه روان‌شناختی و اجتماعی نیز محسوب مي‌شود چراكه مطالعات نشان می‌دهند محتواهای حاصل از جعل عميق‌ می‌توانند حافظة افراد را دستکاری و خاطرات جعلی ایجاد کنند، حتی اگر افراد بدانند که آن محتواها ممکن است از پايه و اساس جعلی محسوب شوند.

جعل عمیق جایگاه عکس و فیلم را از یک سند معتبر به یک ابزار مشکوک تقلیل داده‌است

برخی تحقیقات نشان داده‌اند که مواجهه مداوم با جعل عمیق نه‌تنها باور به محتوای جعلی را افزایش می‌دهد، بلکه از اعتماد به تمام محتواها حتی از جنس واقعی آن مي‌کاهد. این مسئله در عصر پساحقیقت که رسانه‌ها نه‌فقط معنا بلکه احساس می‌سازند و حقیقت را تعیین می‌کنند، شدت ‌گرفته و منجر به کاهش اعتماد کلی به رسانه‌ها ‌شده است. جعل عميق در دورانی که تصویر و احساسات ناشی از آن بر تفکر غالب شده‌اند، جایگاه عکس و فيلم را از یک سند معتبر به یک ابزار مشکوک تقليل داده‌اند. در گذشته، یک فیلم می‌توانست یک جنایت، اعتراض یا رویداد تاریخی را اثبات کند، اما حالا با هوش مصنوعی هرکس می‌تواند محتوایي مجعول تولید کند که تشخیص آن نیاز به ابزارهای پیشرفته دارد. این تضعیف اعتماد و تشكيك منجر به کشمکش‌هایی در حوزه‌های مختلف شده است.

در حوزه رسانه و خبر جعل عمیق کار راستی‌آزمایی را پیچیده‌تر کرده است/

در حوزه قضایی فیلم‌ها دیگر به‌تنهایی ادلة کافی محسوب نمی‌شوند

در حوزه رسانه و خبر جعل عميق کار راستی آزمایی را پیچیده‌تر کرده است. خبر‌نگاران حالا باید ابزارهای تشخیص جعل عميق مانند نرم‌افزارهای مبتنی بر هوش مصنوعی را به‌کارگیرند، اما حتی این ابزارها کامل نیستند. مطالعات نشان می‌دهد که جعل عميق اعتبار اطلاعات را زیر سؤال می‌برد لذا به روش‌هایی جدید برای تأیید اصالت محتوا نیاز است. همچنین، این فناوری اعتماد عمومی به رسانه‌ها را کاهش می‌دهد زیرا مردم ممکن است همة محتواهای تصویری را جعلی فرض کنند. در حوزه قضايي فیلم‌ها دیگر به‌تنهایی ادله کافی محسوب نمي‌شوند و به شواهد اضافی مانند فراداده یا تحلیل فنی نياز است. علاوه بر این جعل عميق در زمینه‌هایی مانند فیلم‌های غیراخلاقی جهت آزار هدفمند و انتقام‌جویانه باعث آسیب‌های روانی و اجتماعی می‌شوند و اعتماد به محتوای شخصی را تضعیف می‌کنند. گسترش جعل عميق در حوزه مردم‌سالاری نيز می‌تواند امر انتخاب و انتخابات را مختل کند، زیرا فيلم‌های جعلی می‌توانند افکار عمومی را دستکاری کنند.

بحران جعل عمیق این ایده که باورپذیری منوط به دیدن است را نقض کرده است

 تحقیقات نشان می‌دهد که بحران جعل عميق این ایده كه باورپذیری منوط به ديدن است را نقض كرده است و اين مهم در آيندة جامعه، مبارزات سیاسی و نتايج حاصل از آن تعیین‌کننده است. ایالت‌های مختلف آمریکا با پيشگامی کالیفرنیا قوانینی برای مبارزه با جعل عميق در انتخابات وضع کرده‌اند. بررسي این قوانین نشان می‌دهد که بسیاری از ایالت‌ها مقرراتی جدید برای ممنوعیت یا برچسب‌گذاری محتوای تولیدشده توسط هوش مصنوعی در تبلیغات انتخاباتی و هدف‌گیری جعل عميق در حوزه‌های دیگر مانند بهداشت را تصویب و اجرا کرده‌اند.

 

جعل عمیق قابلیت دستکاری واقعیت را افزایش و اعتماد کلی به محتوای بصری را کاهش داده‌است/

جعل عمیق به سطحی رسیده که تشخیص آن حتی برای کارشناسان دشوارتر از قبل است

آیا می‌توان گفت وارد دوره‌ای شده‌ایم که شواهد بصری به‌تنهایی دیگر کفایت نمی‌کنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟

بله چنین به نظر می‌رسد. می‌توان گفت این تغییر به دلیل پیشرفت‌های سریع فناوری جعل عميق در سال‌های اخیر رخ‌داده است. مطالعات نشان می‌دهد که جعل عميق نه‌تنها قابلیت دستکاری واقعیت را افزایش داده‌اند، بلکه اعتماد کلی به محتوای بصری را نیز کاهش داده‌اند، به‌طوری‌که ممکن است بحران اصالت تصویری ایجاد شود چراکه ابزارهای هوش مصنوعی تولید محتوای جعلی را واقع‌نما کرده‌اند و این امر نیاز به شواهد مکمل مانند فراداده یا تأیید منابع چندگانه را ضروری ‌کرده است. به‌رغم خوش‌بینی‌های سال 2019 جعل عميق در سال ۲۰۲۵ به سطحی رسید که تشخیص آن حتی برای کارشناسان دشوارتر از پیش شد. این پیشرفت‌ها نه‌تنها در حوزه سرگرمی، بلکه در رسانه‌های خبری و حتی شواهد قانونی تأثیر گذاشته‌اند، جایی که جعل عميق می‌تواند اعتبار شواهد را زیر سؤال ببرد.

بحران جعل عمیق بر شیوه تصمیم‌گیری و قضاوت مخاطبان شبکه‌ای تأثیراتی عمیق دارد/

مواجهه با جعل عمیق باور افراد را تغییر می‌دهد و خاطرات جعلی ایجاد می‌کند

 این بحران بر شیوة تصمیم‌گیری و قضاوت مخاطبان شبكه‌اي تیز تأثیراتی عمیق دارد و آن را به فرایندی پیچیده تبدیل کرده است که در ادامه به برخی موارد اشاره می کنم؛

افزایش شک و تردید: مخاطبان شبكه‌اي حالا تمایلی بیشتر به تشکيک در محتوای بصری دارند که این می‌تواند منجر به ناباوري و بی‌تفاوتی نسبت به واقعیت شود تا جایی که حتی شواهد واقعی رد ‌شوند و مرگ حقیقت تسریع ‌شود. این مسئله تصمیم‌گیری را کندتر و محتاطانه‌تر می‌کند، اما هم‌زمان خطر گسترش اطلاعات نادرست را افزایش می‌دهد.

نیاز به مهارت‌های انتقادی بیشتر: تصمیم‌گیری اكنون وابسته به ارزیابی منابع، بررسی زمینه و استفاده از ابزارهای راستی آزمایی است. مخاطب/كاربراني که شایستگی‌های پایة سوادهای نوین را کسب کرده‌اند، بهتر می‌توانند محتوای جعلی را تشخیص دهند، اما متأسفانه همه افراد به این شایستگی‌ها آراسته نیستند.

تأثیر بر باورها و رفتارها: مواجهه با جعل عميق باور افراد را تغییر مي‌دهد و حتی خاطرات جعلی ایجاد مي‌کند که این امر در حوزه‌های سیاسی و اجتماعی خطرناک است. برای مثال، در انتخابات یا در حوزه خبر، این امر می‌تواند افکار عمومی را دستکاری کند و اعتماد را در مقام يك سرماية گران‌بها کاهش دهد.

البته این تحول اثرات مثبت بالقوه نیز به دنبال دارد. این امر می‌تواند مخاطبان شبكه‌اي را به سمت تصمیم‌گیری و قضاوت مبتنی بر شواهد چندگانه سوق دهد که درنهایت تفکر انتقادی و سواد رسانه‌ای جامعه را افزایش می‌دهد؛ اما بدون آموزش و یادگیری نظام‌مند این امر می‌تواند منجر به سردرگمی و کاهش مشارکت اجتماعی شود.

 

رسانه ها در آینده برای مقابله با جعل عميق به ترکیبی از ابزارها و دستورالعمل‌های حرفه‌ای تکیه می‌کنند

رسانه‌ها در آینده از چه ابزارها، فناوری‌ها و پروتکل‌های حرفه‌ای برای تشخیص و راستی‌آزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها به‌تنهایی کافی‌اند؟

چنان‌که در كتاب «عليه اخبار جعلي» آمده است به نظر می‌رسد در آینده نزدیک رسانه‌ها برای مقابله با محتوای جعلی مانند جعل عميق به ترکیبی از ابزارها و دستورالعمل‌های حرفه‌ای تکیه می‌کنند چراكه ابزارها به‌تنهایی کافی نیستند و به رویکردهایی چند سطحی نیاز است لذا رسانه‌ها از ابزارهای مبتنی بر هوش مصنوعی برای تشخیص خودکار جعل عميق استفاده می‌کنند و فناوری‌هایی مانند نهان‌نگاری و تحلیل چندوجهی مکمل و مقوم این ابزار است.

توسعه کمی و کیفی ابزاري با دقت بالا مانند AI or Not–Optic، Sensity AI، Hive Moderation که جعل عميق را در عکس‌، فيلم، صدا و متن تشخیص می‌دهند همچنین روزآمدسازی ابزارهایی مانند Microsoft’s Video Authenticator که امتیاز اطمینان برای محتوای دستکاری‌شده ارائه می‌کنند و نشانه‌های ترکیب جعل عميق یا عناصر نامرئی مانند تغییرات رنگ چهره ناشی از ضربان قلب را تشخیص می‌دهند برای رسانه‌ها، خبرنگاران و كارشناسان امنیت سایبری کاربرد دارند.

فناوري نهان‌نگاري نامرئي و ابزارهایی بر پایه بلاك‌چين مانند BitMind AI برای تشخیص پیشرفته جعل عميق در رسانه‌های اجتماعی استفاده و در این زمینه راهگشا محسوب می‌شوند. محققان نهان‌نگاری‌هایي مبتنی بر نور نامرئی را توسعه داده‌اند که جعل عميق را بدون تغییر قابل‌مشاهده، تشخیص می‌دهد. پروژه‌هایی مانند WeVerify و Google SynthID از پایگاه داده‌های بلاك‌چين برای ثبت محتوای جعلی شناخته‌شده استفاده می‌کنند و تحلیل سایت شبکه‌های اجتماعی و تأیید چندوجهی را برای افشای محتوای ساختگی به کار می‌گیرند. این فناوری‌ها با پیشرفت مدل‌های یادگیری عمیق همراه می‌شوند، اما نیاز به به‌روزرسانی مداوم داده‌ها دارند تا با فنون جدید جعل عميق مقابله کنند.

ضرورت توجه به آموزش سواد رسانه ای، وضع مقررات و همکاری فناوری با مهارتهای فردی-اجتماعی

رسانه‌ها همچنین دستورالعمل‌های حرفه‌ای را در تشخیص جعل عميق دنبال می‌کنند که لایه‌های متعدد تأیید چندگانه شامل بررسی محتوای ارائه‌شده، بررسی یکپارچگی داده‌ها و ابزارهای OSINT، به‌کارگیری دستورالعمل‌های خبرنگاری بر پایه مفاهیمی مانند HITL در قالب رویکرد نظارتی آن همچنین مقررات و استانداردهای اعلامی از سوی سازمان‌های بین‌المللی را شامل مي‌شود.

البته چنان‌که در كتاب «پنج گفتار درباره اخبار جعلي» بيان شد با توجه به آمار‌هایی چون نسبت كميِ توليدكنندگان به تحلیل‌کنندگان جعل عميق که به تعبير كارشناسان صد به يك است؛ امكان غلبه تام و تمام بر اين قبيل محتوا محل ترديد است و به نظر می‌رسد روند شناسايي جعل عميق همچون رابطه موش و گربه در كارتون تام و جري بين الگوریتم‌های هوش مصنوعي و خبرگان تشخيص فیلم‌های جعلي به دور تسلسل دچار ‌شود، زیرا جعل عميق سریع‌تر پیشرفت می‌کند و ابزارها اغلب امكان و ظرفيت کافی برای ارزیابی محتوا را ندارند. محدودیت‌هايي مانند وابستگی به داده‌های آموزشی قدیمی و خطر وابستگی بیش‌ازحد خبرنگاران به فناوری نيز مي‌‌تواند منجر به بروز اشتباه شود؛ بنابراین نیاز به آموزش سوادهای نوین، وضع مقررات قانونی و در نهایت همکاری فناوری با مهارت‌های فردی و اجتماعی تا این لحظه تنها راه مقابلة مؤثر به نظر می‌رسد.

 

رسانه‌ها نه‌تنها باید محتوای جعلی را تشخیص دهند، بلکه مسئولیت حفظ اعتماد عمومی را نیز بر عهده‌دارند

اتاق‌های خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند

در مواجهه با دیپ‌فیک، مسئولیت رسانه‌ها بیشتر فنی است یا اخلاقی و تحریریه‌ای؟ مرز این دو کجاست؟

به نظر توجه به هر دو وجه ضروری است. پیشرفت‌ فناوری جعل عميق نشان‌دهندة نیاز به رویکردی جامع در مسير صعب این مبارزه است كه ابزارهای فنی تنها بخشی از راه‌حل محسوب مي‌شوند و بدون چارچوب‌های اخلاقی ناکارآمدند. مطالعات نشان می‌دهد که رسانه‌ها نه‌تنها باید محتوای جعلی را تشخیص دهند، بلکه مسئولیت حفظ اعتماد عمومی، جلوگیری از رشد آسیب‌های اجتماعی و رعایت اصول اخلاقی مانند رضایت و شفافیت را نیز بر عهده‌دارند.

بعد فنی در این رابطه شامل به‌کارگیری ابزارهای پیشرفته برای تشخیص و راستی‌آزمایی جعل عميق است. این جنبه بر توسعه و استفاده از فناوری‌هایی مانند الگوریتم‌های هوش مصنوعی برای تحلیل محتواها، نهان‌نگاری‌های نامرئی و سامانه‌های بلاك‌چين تمرکز دارد تا اصالت محتوا را تأیید کند. بااین‌حال، این وجه مسئوليت بیشتر عملیاتی است و در مقام یک‌لایه اولیه و نه راه‌حل نهایی عمل مي‌كند زیرا ابزار صحت‌سنجی همیشه يك تأخر ذاتی فناورانه را نسبت به پیشرفت‌های جعل عميق‌ بدوش مي‌كشند. وجه ديگر مسئولیت رسانه‌ها كه اخلاقی و تحریریه‌ای است، جایی است که تصمیم‌گیری‌های انسانی در مورد انتشار، بستر‌سازی و آموزش مخاطبان شبكه‌ای نقشی کلیدی ایفا می‌کند. رسانه‌ها باید اصول اخلاقی مانند کسب رضایت، شفافیت در برچسب‌گذاری محتوای جعلی و جلوگیری از سوءاستفاده‌ها مانند فيلم‌هاي دستکاری‌شده به‌قصد تخريب رقباي تجاري و سیاسی را رعایت کنند. اتاق‌هاي خبر مسئولیت دارند تا محتوای مشکوک را نه‌تنها از نظر فنی بررسی کنند، بلکه تأثیرات اجتماعی آن را ارزیابی کنند – به‌طور مثال آیا انتشار یک فیلم جعلی می‌تواند به بحران دانستن دامن بزند یا اعتماد عمومی را کاهش دهد؟ علاوه بر این، رسانه‌ها در مقام دروازه‌بانان رسمي اطلاعات و اخبار، مسئولیت آموزش توأمان تحریریه و مخاطبان شبكه‌ای را برای افزایش سوادهای نوین و تنظیم سیاست‌های داخلی را برای جلوگیری از گسترش جعل عميق بر عهده‌دارند که اقدامي فراتر از رويكرد ابزاری است. در تحريريه این آموزش‌ها شامل آشنایی با فنون و روش‌هاي مبارزه با جعل عميق، افزایش مسئوليت‌پذيري و تعهد در کارکنان در قبال عدم همرسانی محتواهای جعلی، درك مفهوم مخاطب شبكه‌اي در چارچوب نظريه‌هاي معطوف به قلمرو رسانه‌هاي نوين (2000 تا 2025)، تأکید بر تهيه هر چه بيشتر گزارش‌های تحقيقي جهت جلوگيري از مشروعیت‌یابیِ اطلاعات نادرست عمدي منبعث از جعل عميق و قس‌علی‌هذاست. بر اين اساس اتحاديه اروپا با وضع قوانینی مانند قانون هوش مصنوعی رسانه‌ها را ملزم كرده است كه اخلاقیات را در اولویت قرار دهند و به مسئولیت قانونی خود در اين زمينه پايبند بمانند. لازم به ذكر است كه در قانون مذكور سامانه‌های هوش مصنوعی بر اساس سطح خطری که برای کاربران و جامعه ایجاد می‌کنند، طبقه‌بندی‌شده‌اند و سطح ریسک جعل عميق هم محدود عنوان‌شده است.

جعل عمیق نه‌تنها یک مسئله فنی، بلکه تهدیدی اجتماعی است/

زمانی که ابزارها محتوای جعلی را شناسایی می‌کنند، پایان مسئولیت فنی و آغاز مسئولیت اخلاقی است/

بدون اخلاقیات از فناوری سوءاستفاده می‌شود و بدون فناوری اخلاقیات در عرصه عمل ناکارآمد است

بنابراين جعل عميق نه‌تنها یک مسئله فنی، بلکه تهدیدي اجتماعی است که می‌تواند به مردم‌سالاری، حریم خصوصی و روابط انسانی آسیب بزند لذا رسانه‌ها باید مانند یک نگهبان اخلاق مدار و نه یک پالایندة فنی صرف عمل كنند. مرز این دو حوزه در نقطه‌ای است که فناوری، ابزار را فراهم می‌کند اما تصمیم‌گیری انسانی آن را هدایت می‌کند. زمانی که ابزارها محتوای جعلی را شناسایی می‌کنند، پايان مسئولیت فنی و آغاز مسئولیت اخلاقی است؛ وقتی‌که تحریریه باید تصمیم بگیرد كه آیا محتوا را منتشر کند یا با در نظر گرفتن عواقب اجتماعی آن مانند آسیب به افراد یا گسترش اطلاعات نادرست حذفش کند. برای مثال، یک ابزار فنی ممکن است یک محتواي جعل عميق را با ۹۸ درصد اطمینان تشخیص دهد، اما تحریریه باید اخلاقیات را ارزیابی کند: آیا انتشار آن مفید است یا می‌تواند به بحران اعتماد دامن بزند؟ اغلب جایی که فناوری با اصول اخلاقی مانند اصل «هیچ آسیبی وارد نکن» تلاقي پيدا مي‌كنند داراي شفافيت نيست كه براي مرزبندي روشن و بدون ابهام نیاز به دستورالعمل‌هایي دارد. در رسانه‌ها اصل مزبور بخشی از اخلاق حرفه‌ای است که بر جلوگیری از آسیب‌های احتمالی تأکید مي‌كند. بدون اخلاقیات از فناوری سوءاستفاده مي‌شود و بدون فناوری اخلاقیات در عرصة عمل ناکارآمد است، بنابراین رسانه‌ها باید رویکردی متوازن و تلفیقی اتخاذ کنند. در مجموع تمرکز بر مسئولیت اخلاقی و تحریریه‌ای با بهره‌مندي از ابزار روزآمد می‌تواند رسانه‌ها را به سمت ساختن یک زیست‌بوم دیجیتال مسئولانه‌تر سوق دهد كه این خود نیازمند استقلال و آزادی عمل حرفه‌ای رسانه‌ها و همراهي سیاست‌گذاران است.

 

جعل عمیق اعتماد عمومی به محتوای دیجیتال را به‌شدت کاهش داده است

تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیم‌گیری‌های سیاسی و اجتماعی دارد؟

تضعیف اعتبار عكس و فيلم كه از ثمرات ناميمون گسترش جعل عميق است از جدی‌ترین پيچيدگي‌های دوران انقلاب هوش مصنوعي است. در سال ۲۰۲۵، با افزایش چشمگیر محتوا‌های جعل عميق نه‌تنها مرز بین واقعیت و جعل محو شد، بلکه پیامدهای مخرب گسترده‌ای بر اعتماد عمومی، امنیت اطلاعاتی و تصمیم‌گیری‌های سیاسی و اجتماعی برجا گذاشت كه بخشي از آن را در جنگ 12 روزه عليه كشور عزيزمان شاهد بوديم. اين مهم ناشي از عدم شفافيت در فرآيندها و افزايش خطرات اجتماعي مانند فروكاست اعتماد عمومی به رسانه‌ها به دلیل محتواهای تولیدی بر مبنای جعل عميق است كه از آن به‌عنوان جعبه سياه هوش مصنوعي ياد می‌شود. اين تزلزل‌ها و تضعیف‌ها به بحران دانستن منجر شده است، جایی که افراد حتی به محتوای واقعی هم شک می‌کنند و بر اين اساس جامعه هم به سمت بی‌تفاوتی و سردرگمی سوق پيدا می‌كند. جعل عميق اعتماد عمومی به محتوای دیجیتال را به‌شدت کاهش داده است. با گذر زمان به نظر می‌رسد مخاطبان شبكه‌ای بیش‌ازپیش تمایل پیداکرده‌اند به هر عکس یا فیلم با ديده ترديد بنگرند که این منجر به از دست رفتن اعتماد به رسانه‌ها ‌شده است. در سطح اجتماعی، این کاهش اعتماد می‌تواند به انزوا یا کاهش مشارکت مدنی منجر شود زیرا افراد کمتر به اطلاعات همرسانی شده در رسانه‌های اجتماعی اعتماد می‌کنند.

جعل عمیق بنیان امنیت شخصی و سازمانی را به خطر می اندازد/

در حوزه سیاسی، جعل عمیق می‌تواند انتخابات را مختل و افکار عمومی را دستکاری کند

از منظر امنیت اطلاعاتی، جعل عميق تهدیدی جدی است و می‌تواند به حملات سایبری، کلاه‌برداری و دستکاری اطلاعات بيانجامد. افزایش چشمگیر تلاش‌ها برای کلاه‌برداری و خرابكاري سایبری نشان‌دهنده این حقيقت است که جعل عمیق بنیان امنیت شخصی و سازمانی را به مخاطره افكنده است. این فناوری می‌تواند برای فریب افراد در زمینه‌های مالی یا هویتی استفاده شود، مانند جعل صدا برای دسترسی به حساب‌ها که اعتماد به سامانه‌های امنیتی را کاهش می‌دهد. علاوه بر این، در حوزه سایبری، جعل عميق می‌تواند اطلاعات نادرست را در مقیاسی بزرگ پخش و امنیت ملی را تهدید کند.

در حوزه سیاسی، جعل عميق می‌تواند انتخابات را مختل و افکار عمومی را دستکاری كنند. برای مثال، فیلم‌های جعلی از رهبران سیاسی می‌تواند رأی‌دهندگان را فریب و نتایج انتخابات را تغییر دهد که این امر مردم‌سالاری را تحديد و تهديد می‌کند. تحقیقات نشان می‌دهد که جعل عميق گفتمان مردم‌سالار را به خطر ‌انداخته است. جعل عميق می‌تواند بحران‌های سیاسی ایجاد کند يا بدان دامن بزند و از طریق افزایش اطلاعات نادرست غیرعمدی و عمدی در سپهر سیاسی اعتماد به فرآیندهای انتخاباتی را به حداقل برساند.

جعل عمیق می‌تواند حافظه جمعی را دستکاری کند و جوامع را دچار چنددستگی کند

در سطح اجتماعی، تضعیف اعتبار تصویر می‌تواند به تغییرات در هنجارهای اجتماعی، روابط و فرآیندهای تصمیم‌گیری منجر شود. جعل عميق می‌تواند برای آزار، باج‌خواهی یا آسیب به شهرت مورداستفاده قرار گیرد که اين مهم باعث كاهش اعتماد اجتماعی و افراد را منزوی می‌كند. همچنین، این فناوری می‌تواند حافظة جمعی را دستکاری کند و جوامع را دچار چنددستگی و کاهش همبستگی اجتماعی کند.

این پیامدها نشان‌دهنده نیاز فوری به آموزش سوادهای نوین، اجراي قوانین موضوعه و ارتقا ابزارهای فنی است تا اعتماد و امنیت حفظ شود. بدون این قبیل اقدامات، جامعه در مسلخ پساحقیقت به سوگ مرگ حقیقت مي‌نشیند.

 

جعل عمیق با ایجاد شک کلی به محتوای بصری، جامعه را به سمت بحران معرفتی سوق می‌دهد

کاهش اعتماد به کاهش مشارکت اجتماعی، افزایش قطبی‌سازی و حتی بحران‌های عمیق اجتماعی منجر می‌شود

به نظر شما تهدید اصلی دیپ‌فیک فریب مستقیم مخاطب است، یا فرسایش تدریجی اعتماد عمومی به تصویر و ویدئو به‌عنوان شواهد واقعی؟

هر دو جنبه تهدیدآمیزند اما كاهش تدریجی اعتماد عمومی به محتوای تصویری محل نگراني مضاعف است. گزارش‌ها حاكي از آن است که تأثیر بلندمدت جعل عميق بر اعتماد عمومی عمیق‌تر و فراگیرتر است، زیرا حتی بدون فریب مستقیم یک فرد، جعل عميق می‌تواند در جامعه شک کلی به محتوای بصری ایجاد ‌کند و آن را به سمت بحران معرفتی سوق ‌دهد. فریب مستقیم زمانی رخ می‌دهد که جعل عميق برای دستکاری باورهای یک فرد یا گروه خاص استفاده شوند، مانند فيلم‌های جعلی از سیاستمداران که سخنان دروغین می‌گویند یا کلاه‌برداری‌های مالی که با صدای ساختگي انجام می‌شود. این تهدید واقعی است و می‌تواند به ضررهای مالی، آسیب روانی یا حتی خشونت منجر شود بااین‌حال، این جنبه اغلب محدود به مواردي خاص است و با ابزارهای تشخیص یا آموزش، می‌توان آن را مدیریت کرد؛ اما تهدید جدي در زوال تدریجی اعتماد عمومی است، جایی که حتی بدون فریب مستقیم، وجود این فناوری باعث می‌شود افراد به تمام محتواهای بصری شک کنند. این پدیده به آلودگی اطلاعاتی منجر می‌شود و اعتماد را از رسانه‌ها سلب می‌كند. در حوزه‌هایی مانند بهداشت، امنیت سایبری و انتخابات، این كاهش اعتماد می‌تواند به کاهش مشارکت اجتماعی، افزایش قطبی‌سازی و حتی بحران‌های عميق اجتماعی منجر شود به‌طور مثال وقتی هر صوت و تصوير ظرفیت جعلی بودن یافت؛ اعتماد به سامانه‌های احراز هویت صوتی یا تصویری از بین می‌رود و یک زیست‌بوم فریب ایجاد می‌شود که اعتماد دیجیتال را به‌طورکلی از جامعه سلب می‌کند.

اقدام لازم و عاجل برای آموزش و یادگیری سوادهای نوین در قالب آموزش‌های عمومی بسیار ضروری است

در پايان تصريح می‌شود به‌رغم وجود تمامي كاستي‌ها و ناكارآمدي‌ها، در هنگامه‌اي كه ايران عزيز به‌شدت درگير نبرد روايت‌هاست و افكار عمومي آماج اخبار جعلي، تحليل‌هاي مغرضانه، وارونه نشان دادن واقعيت‌ها، پنهان كردن جلوه‌هاي اميدبخش، بزرگ كردن عيوب كوچك و كوچك نشان دادن يا انكار محسنات بزرگ قرار دارد، اقدام لازم و البته عاجل براي آموزش و یادگیری سوادهای نوین در قالب آموزش‌هاي عمومی بسيار ضروری است تا آحاد ملت بتوانند جهت حفظ كيان و تماميت سرزميني به شكستن اين حصر تبليغاتی مبادرت ورزند.