شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت رسانه ها چیست؟ سید غلامرضا فلسفی، پژوهشگر حوزه سواد رسانهای می گوید: جعل عميق در قالب محتوای واقعنما، ديواري بلند از بياعتمادي بین واقعیت و خیال ساخته است و به شكگرايي نسبت به واقعیت انجاميده است، جایی که افراد حتی به محتوای واقعی هم در عين بيتفاوتي ناباورانه مینگرند. این دگرگونی نهتنها فنی است، بلکه روانشناختی و اجتماعی نیز محسوب ميشود چراكه محتواهای حاصل از جعل عميق میتوانند حافظة افراد را دستکاری و خاطرات جعلی ایجاد کنند.
متن گفتگوی شفقنا رسانه با سید غلامرضا فلسفی، پژوهشگر حوزه سواد رسانهای و نویسنده کتاب «پنج گفتار درباره اخبار جعلي» را در ادامه بخوانید…
گسترش دیپفیک بنیانهای ادراک ما را از واقعیت زیر سؤال برده است
جعل عمیق در قالب محتوای واقعنما، دیواری بلند از بیاعتمادی بین واقعیت و خیال ساخته است
گسترش دیپفیک چگونه مفهوم «حقیقت بصری» را دگرگون کرده و جایگاه تصویر و ویدئو را بهعنوان سند قابلاتکا تضعیف کرده است؟
گسترش دیپفیک (كه با معادلهايي چون جعل عميق، جعل عمقي و جعل ژرف از آن ياد میشود) بنیانهای ادراک ما را از واقعیت زیر سؤال برده است و بر اين اساس یکی از پیچیدگیهای اساسی عصر دیجیتال بهخصوص بعد از انقلاب هوش مصنوعی را رقمزده است. جعل عميق به محتواهایی جعلی اطلاق ميشود که با هوش مصنوعی ساخته میشوند و تشخیص آنها از محتوای واقعی بسيار دشوار است. این فناوری نهتنها بر رسانهها تأثیر گذاشته است، بلکه مفهوم حقیقت بصری یعنی ایدهای که بر اساس آن آنچه میبینیم را در مقام شواهد غیرقابلانکار میپذیریم، بهطور اساسی دگرگون کرده است.
در گذشته، عکس و فیلم حرمت داشتند و چون شاهدان عینی عمل میکردند؛ بهطور مثال یک عکس میتوانست یک رویداد را اثبات کند و فیلمها شواهدی محکم براي گزارشهای خبری بودند؛ اما با گسترش جعل عميق این کارکرد شکننده شده است. جعل عميق در قالب محتوای واقعنما، ديواري بلند از بياعتمادي بین واقعیت و خیال ساخته است و به شكگرايي نسبت به واقعیت انجاميده است، جایی که افراد حتی به محتوای واقعی هم در عين بيتفاوتي ناباورانه مینگرند. این دگرگونی نهتنها فنی است، بلکه روانشناختی و اجتماعی نیز محسوب ميشود چراكه مطالعات نشان میدهند محتواهای حاصل از جعل عميق میتوانند حافظة افراد را دستکاری و خاطرات جعلی ایجاد کنند، حتی اگر افراد بدانند که آن محتواها ممکن است از پايه و اساس جعلی محسوب شوند.
جعل عمیق جایگاه عکس و فیلم را از یک سند معتبر به یک ابزار مشکوک تقلیل دادهاست
برخی تحقیقات نشان دادهاند که مواجهه مداوم با جعل عمیق نهتنها باور به محتوای جعلی را افزایش میدهد، بلکه از اعتماد به تمام محتواها حتی از جنس واقعی آن ميکاهد. این مسئله در عصر پساحقیقت که رسانهها نهفقط معنا بلکه احساس میسازند و حقیقت را تعیین میکنند، شدت گرفته و منجر به کاهش اعتماد کلی به رسانهها شده است. جعل عميق در دورانی که تصویر و احساسات ناشی از آن بر تفکر غالب شدهاند، جایگاه عکس و فيلم را از یک سند معتبر به یک ابزار مشکوک تقليل دادهاند. در گذشته، یک فیلم میتوانست یک جنایت، اعتراض یا رویداد تاریخی را اثبات کند، اما حالا با هوش مصنوعی هرکس میتواند محتوایي مجعول تولید کند که تشخیص آن نیاز به ابزارهای پیشرفته دارد. این تضعیف اعتماد و تشكيك منجر به کشمکشهایی در حوزههای مختلف شده است.
در حوزه رسانه و خبر جعل عمیق کار راستیآزمایی را پیچیدهتر کرده است/
در حوزه قضایی فیلمها دیگر بهتنهایی ادلة کافی محسوب نمیشوند
در حوزه رسانه و خبر جعل عميق کار راستی آزمایی را پیچیدهتر کرده است. خبرنگاران حالا باید ابزارهای تشخیص جعل عميق مانند نرمافزارهای مبتنی بر هوش مصنوعی را بهکارگیرند، اما حتی این ابزارها کامل نیستند. مطالعات نشان میدهد که جعل عميق اعتبار اطلاعات را زیر سؤال میبرد لذا به روشهایی جدید برای تأیید اصالت محتوا نیاز است. همچنین، این فناوری اعتماد عمومی به رسانهها را کاهش میدهد زیرا مردم ممکن است همة محتواهای تصویری را جعلی فرض کنند. در حوزه قضايي فیلمها دیگر بهتنهایی ادله کافی محسوب نميشوند و به شواهد اضافی مانند فراداده یا تحلیل فنی نياز است. علاوه بر این جعل عميق در زمینههایی مانند فیلمهای غیراخلاقی جهت آزار هدفمند و انتقامجویانه باعث آسیبهای روانی و اجتماعی میشوند و اعتماد به محتوای شخصی را تضعیف میکنند. گسترش جعل عميق در حوزه مردمسالاری نيز میتواند امر انتخاب و انتخابات را مختل کند، زیرا فيلمهای جعلی میتوانند افکار عمومی را دستکاری کنند.
بحران جعل عمیق این ایده که باورپذیری منوط به دیدن است را نقض کرده است
تحقیقات نشان میدهد که بحران جعل عميق این ایده كه باورپذیری منوط به ديدن است را نقض كرده است و اين مهم در آيندة جامعه، مبارزات سیاسی و نتايج حاصل از آن تعیینکننده است. ایالتهای مختلف آمریکا با پيشگامی کالیفرنیا قوانینی برای مبارزه با جعل عميق در انتخابات وضع کردهاند. بررسي این قوانین نشان میدهد که بسیاری از ایالتها مقرراتی جدید برای ممنوعیت یا برچسبگذاری محتوای تولیدشده توسط هوش مصنوعی در تبلیغات انتخاباتی و هدفگیری جعل عميق در حوزههای دیگر مانند بهداشت را تصویب و اجرا کردهاند.
جعل عمیق قابلیت دستکاری واقعیت را افزایش و اعتماد کلی به محتوای بصری را کاهش دادهاست/
جعل عمیق به سطحی رسیده که تشخیص آن حتی برای کارشناسان دشوارتر از قبل است
آیا میتوان گفت وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر کفایت نمیکنند؟ این تغییر چه تأثیری بر شیوه قضاوت مخاطبان دارد؟
بله چنین به نظر میرسد. میتوان گفت این تغییر به دلیل پیشرفتهای سریع فناوری جعل عميق در سالهای اخیر رخداده است. مطالعات نشان میدهد که جعل عميق نهتنها قابلیت دستکاری واقعیت را افزایش دادهاند، بلکه اعتماد کلی به محتوای بصری را نیز کاهش دادهاند، بهطوریکه ممکن است بحران اصالت تصویری ایجاد شود چراکه ابزارهای هوش مصنوعی تولید محتوای جعلی را واقعنما کردهاند و این امر نیاز به شواهد مکمل مانند فراداده یا تأیید منابع چندگانه را ضروری کرده است. بهرغم خوشبینیهای سال 2019 جعل عميق در سال ۲۰۲۵ به سطحی رسید که تشخیص آن حتی برای کارشناسان دشوارتر از پیش شد. این پیشرفتها نهتنها در حوزه سرگرمی، بلکه در رسانههای خبری و حتی شواهد قانونی تأثیر گذاشتهاند، جایی که جعل عميق میتواند اعتبار شواهد را زیر سؤال ببرد.
بحران جعل عمیق بر شیوه تصمیمگیری و قضاوت مخاطبان شبکهای تأثیراتی عمیق دارد/
مواجهه با جعل عمیق باور افراد را تغییر میدهد و خاطرات جعلی ایجاد میکند
این بحران بر شیوة تصمیمگیری و قضاوت مخاطبان شبكهاي تیز تأثیراتی عمیق دارد و آن را به فرایندی پیچیده تبدیل کرده است که در ادامه به برخی موارد اشاره می کنم؛
– افزایش شک و تردید: مخاطبان شبكهاي حالا تمایلی بیشتر به تشکيک در محتوای بصری دارند که این میتواند منجر به ناباوري و بیتفاوتی نسبت به واقعیت شود تا جایی که حتی شواهد واقعی رد شوند و مرگ حقیقت تسریع شود. این مسئله تصمیمگیری را کندتر و محتاطانهتر میکند، اما همزمان خطر گسترش اطلاعات نادرست را افزایش میدهد.
– نیاز به مهارتهای انتقادی بیشتر: تصمیمگیری اكنون وابسته به ارزیابی منابع، بررسی زمینه و استفاده از ابزارهای راستی آزمایی است. مخاطب/كاربراني که شایستگیهای پایة سوادهای نوین را کسب کردهاند، بهتر میتوانند محتوای جعلی را تشخیص دهند، اما متأسفانه همه افراد به این شایستگیها آراسته نیستند.
– تأثیر بر باورها و رفتارها: مواجهه با جعل عميق باور افراد را تغییر ميدهد و حتی خاطرات جعلی ایجاد ميکند که این امر در حوزههای سیاسی و اجتماعی خطرناک است. برای مثال، در انتخابات یا در حوزه خبر، این امر میتواند افکار عمومی را دستکاری کند و اعتماد را در مقام يك سرماية گرانبها کاهش دهد.
البته این تحول اثرات مثبت بالقوه نیز به دنبال دارد. این امر میتواند مخاطبان شبكهاي را به سمت تصمیمگیری و قضاوت مبتنی بر شواهد چندگانه سوق دهد که درنهایت تفکر انتقادی و سواد رسانهای جامعه را افزایش میدهد؛ اما بدون آموزش و یادگیری نظاممند این امر میتواند منجر به سردرگمی و کاهش مشارکت اجتماعی شود.
رسانه ها در آینده برای مقابله با جعل عميق به ترکیبی از ابزارها و دستورالعملهای حرفهای تکیه میکنند
رسانهها در آینده از چه ابزارها، فناوریها و پروتکلهای حرفهای برای تشخیص و راستیآزمایی محتوای جعلی استفاده خواهند کرد و آیا این ابزارها بهتنهایی کافیاند؟
چنانکه در كتاب «عليه اخبار جعلي» آمده است به نظر میرسد در آینده نزدیک رسانهها برای مقابله با محتوای جعلی مانند جعل عميق به ترکیبی از ابزارها و دستورالعملهای حرفهای تکیه میکنند چراكه ابزارها بهتنهایی کافی نیستند و به رویکردهایی چند سطحی نیاز است لذا رسانهها از ابزارهای مبتنی بر هوش مصنوعی برای تشخیص خودکار جعل عميق استفاده میکنند و فناوریهایی مانند نهاننگاری و تحلیل چندوجهی مکمل و مقوم این ابزار است.
توسعه کمی و کیفی ابزاري با دقت بالا مانند AI or Not–Optic، Sensity AI، Hive Moderation که جعل عميق را در عکس، فيلم، صدا و متن تشخیص میدهند همچنین روزآمدسازی ابزارهایی مانند Microsoft’s Video Authenticator که امتیاز اطمینان برای محتوای دستکاریشده ارائه میکنند و نشانههای ترکیب جعل عميق یا عناصر نامرئی مانند تغییرات رنگ چهره ناشی از ضربان قلب را تشخیص میدهند برای رسانهها، خبرنگاران و كارشناسان امنیت سایبری کاربرد دارند.
فناوري نهاننگاري نامرئي و ابزارهایی بر پایه بلاكچين مانند BitMind AI برای تشخیص پیشرفته جعل عميق در رسانههای اجتماعی استفاده و در این زمینه راهگشا محسوب میشوند. محققان نهاننگاریهایي مبتنی بر نور نامرئی را توسعه دادهاند که جعل عميق را بدون تغییر قابلمشاهده، تشخیص میدهد. پروژههایی مانند WeVerify و Google SynthID از پایگاه دادههای بلاكچين برای ثبت محتوای جعلی شناختهشده استفاده میکنند و تحلیل سایت شبکههای اجتماعی و تأیید چندوجهی را برای افشای محتوای ساختگی به کار میگیرند. این فناوریها با پیشرفت مدلهای یادگیری عمیق همراه میشوند، اما نیاز به بهروزرسانی مداوم دادهها دارند تا با فنون جدید جعل عميق مقابله کنند.
ضرورت توجه به آموزش سواد رسانه ای، وضع مقررات و همکاری فناوری با مهارتهای فردی-اجتماعی
رسانهها همچنین دستورالعملهای حرفهای را در تشخیص جعل عميق دنبال میکنند که لایههای متعدد تأیید چندگانه شامل بررسی محتوای ارائهشده، بررسی یکپارچگی دادهها و ابزارهای OSINT، بهکارگیری دستورالعملهای خبرنگاری بر پایه مفاهیمی مانند HITL در قالب رویکرد نظارتی آن همچنین مقررات و استانداردهای اعلامی از سوی سازمانهای بینالمللی را شامل ميشود.
البته چنانکه در كتاب «پنج گفتار درباره اخبار جعلي» بيان شد با توجه به آمارهایی چون نسبت كميِ توليدكنندگان به تحلیلکنندگان جعل عميق که به تعبير كارشناسان صد به يك است؛ امكان غلبه تام و تمام بر اين قبيل محتوا محل ترديد است و به نظر میرسد روند شناسايي جعل عميق همچون رابطه موش و گربه در كارتون تام و جري بين الگوریتمهای هوش مصنوعي و خبرگان تشخيص فیلمهای جعلي به دور تسلسل دچار شود، زیرا جعل عميق سریعتر پیشرفت میکند و ابزارها اغلب امكان و ظرفيت کافی برای ارزیابی محتوا را ندارند. محدودیتهايي مانند وابستگی به دادههای آموزشی قدیمی و خطر وابستگی بیشازحد خبرنگاران به فناوری نيز ميتواند منجر به بروز اشتباه شود؛ بنابراین نیاز به آموزش سوادهای نوین، وضع مقررات قانونی و در نهایت همکاری فناوری با مهارتهای فردی و اجتماعی تا این لحظه تنها راه مقابلة مؤثر به نظر میرسد.
رسانهها نهتنها باید محتوای جعلی را تشخیص دهند، بلکه مسئولیت حفظ اعتماد عمومی را نیز بر عهدهدارند
اتاقهای خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند
در مواجهه با دیپفیک، مسئولیت رسانهها بیشتر فنی است یا اخلاقی و تحریریهای؟ مرز این دو کجاست؟
به نظر توجه به هر دو وجه ضروری است. پیشرفت فناوری جعل عميق نشاندهندة نیاز به رویکردی جامع در مسير صعب این مبارزه است كه ابزارهای فنی تنها بخشی از راهحل محسوب ميشوند و بدون چارچوبهای اخلاقی ناکارآمدند. مطالعات نشان میدهد که رسانهها نهتنها باید محتوای جعلی را تشخیص دهند، بلکه مسئولیت حفظ اعتماد عمومی، جلوگیری از رشد آسیبهای اجتماعی و رعایت اصول اخلاقی مانند رضایت و شفافیت را نیز بر عهدهدارند.
بعد فنی در این رابطه شامل بهکارگیری ابزارهای پیشرفته برای تشخیص و راستیآزمایی جعل عميق است. این جنبه بر توسعه و استفاده از فناوریهایی مانند الگوریتمهای هوش مصنوعی برای تحلیل محتواها، نهاننگاریهای نامرئی و سامانههای بلاكچين تمرکز دارد تا اصالت محتوا را تأیید کند. بااینحال، این وجه مسئوليت بیشتر عملیاتی است و در مقام یکلایه اولیه و نه راهحل نهایی عمل ميكند زیرا ابزار صحتسنجی همیشه يك تأخر ذاتی فناورانه را نسبت به پیشرفتهای جعل عميق بدوش ميكشند. وجه ديگر مسئولیت رسانهها كه اخلاقی و تحریریهای است، جایی است که تصمیمگیریهای انسانی در مورد انتشار، بسترسازی و آموزش مخاطبان شبكهای نقشی کلیدی ایفا میکند. رسانهها باید اصول اخلاقی مانند کسب رضایت، شفافیت در برچسبگذاری محتوای جعلی و جلوگیری از سوءاستفادهها مانند فيلمهاي دستکاریشده بهقصد تخريب رقباي تجاري و سیاسی را رعایت کنند. اتاقهاي خبر مسئولیت دارند تا محتوای مشکوک را نهتنها از نظر فنی بررسی کنند، بلکه تأثیرات اجتماعی آن را ارزیابی کنند – بهطور مثال آیا انتشار یک فیلم جعلی میتواند به بحران دانستن دامن بزند یا اعتماد عمومی را کاهش دهد؟ علاوه بر این، رسانهها در مقام دروازهبانان رسمي اطلاعات و اخبار، مسئولیت آموزش توأمان تحریریه و مخاطبان شبكهای را برای افزایش سوادهای نوین و تنظیم سیاستهای داخلی را برای جلوگیری از گسترش جعل عميق بر عهدهدارند که اقدامي فراتر از رويكرد ابزاری است. در تحريريه این آموزشها شامل آشنایی با فنون و روشهاي مبارزه با جعل عميق، افزایش مسئوليتپذيري و تعهد در کارکنان در قبال عدم همرسانی محتواهای جعلی، درك مفهوم مخاطب شبكهاي در چارچوب نظريههاي معطوف به قلمرو رسانههاي نوين (2000 تا 2025)، تأکید بر تهيه هر چه بيشتر گزارشهای تحقيقي جهت جلوگيري از مشروعیتیابیِ اطلاعات نادرست عمدي منبعث از جعل عميق و قسعلیهذاست. بر اين اساس اتحاديه اروپا با وضع قوانینی مانند قانون هوش مصنوعی رسانهها را ملزم كرده است كه اخلاقیات را در اولویت قرار دهند و به مسئولیت قانونی خود در اين زمينه پايبند بمانند. لازم به ذكر است كه در قانون مذكور سامانههای هوش مصنوعی بر اساس سطح خطری که برای کاربران و جامعه ایجاد میکنند، طبقهبندیشدهاند و سطح ریسک جعل عميق هم محدود عنوانشده است.
جعل عمیق نهتنها یک مسئله فنی، بلکه تهدیدی اجتماعی است/
زمانی که ابزارها محتوای جعلی را شناسایی میکنند، پایان مسئولیت فنی و آغاز مسئولیت اخلاقی است/
بدون اخلاقیات از فناوری سوءاستفاده میشود و بدون فناوری اخلاقیات در عرصه عمل ناکارآمد است
بنابراين جعل عميق نهتنها یک مسئله فنی، بلکه تهدیدي اجتماعی است که میتواند به مردمسالاری، حریم خصوصی و روابط انسانی آسیب بزند لذا رسانهها باید مانند یک نگهبان اخلاق مدار و نه یک پالایندة فنی صرف عمل كنند. مرز این دو حوزه در نقطهای است که فناوری، ابزار را فراهم میکند اما تصمیمگیری انسانی آن را هدایت میکند. زمانی که ابزارها محتوای جعلی را شناسایی میکنند، پايان مسئولیت فنی و آغاز مسئولیت اخلاقی است؛ وقتیکه تحریریه باید تصمیم بگیرد كه آیا محتوا را منتشر کند یا با در نظر گرفتن عواقب اجتماعی آن مانند آسیب به افراد یا گسترش اطلاعات نادرست حذفش کند. برای مثال، یک ابزار فنی ممکن است یک محتواي جعل عميق را با ۹۸ درصد اطمینان تشخیص دهد، اما تحریریه باید اخلاقیات را ارزیابی کند: آیا انتشار آن مفید است یا میتواند به بحران اعتماد دامن بزند؟ اغلب جایی که فناوری با اصول اخلاقی مانند اصل «هیچ آسیبی وارد نکن» تلاقي پيدا ميكنند داراي شفافيت نيست كه براي مرزبندي روشن و بدون ابهام نیاز به دستورالعملهایي دارد. در رسانهها اصل مزبور بخشی از اخلاق حرفهای است که بر جلوگیری از آسیبهای احتمالی تأکید ميكند. بدون اخلاقیات از فناوری سوءاستفاده ميشود و بدون فناوری اخلاقیات در عرصة عمل ناکارآمد است، بنابراین رسانهها باید رویکردی متوازن و تلفیقی اتخاذ کنند. در مجموع تمرکز بر مسئولیت اخلاقی و تحریریهای با بهرهمندي از ابزار روزآمد میتواند رسانهها را به سمت ساختن یک زیستبوم دیجیتال مسئولانهتر سوق دهد كه این خود نیازمند استقلال و آزادی عمل حرفهای رسانهها و همراهي سیاستگذاران است.
جعل عمیق اعتماد عمومی به محتوای دیجیتال را بهشدت کاهش داده است
تضعیف اعتبار تصویر و ویدئو چه پیامدهایی برای اعتماد عمومی، امنیت اطلاعاتی و حتی تصمیمگیریهای سیاسی و اجتماعی دارد؟
تضعیف اعتبار عكس و فيلم كه از ثمرات ناميمون گسترش جعل عميق است از جدیترین پيچيدگيهای دوران انقلاب هوش مصنوعي است. در سال ۲۰۲۵، با افزایش چشمگیر محتواهای جعل عميق نهتنها مرز بین واقعیت و جعل محو شد، بلکه پیامدهای مخرب گستردهای بر اعتماد عمومی، امنیت اطلاعاتی و تصمیمگیریهای سیاسی و اجتماعی برجا گذاشت كه بخشي از آن را در جنگ 12 روزه عليه كشور عزيزمان شاهد بوديم. اين مهم ناشي از عدم شفافيت در فرآيندها و افزايش خطرات اجتماعي مانند فروكاست اعتماد عمومی به رسانهها به دلیل محتواهای تولیدی بر مبنای جعل عميق است كه از آن بهعنوان جعبه سياه هوش مصنوعي ياد میشود. اين تزلزلها و تضعیفها به بحران دانستن منجر شده است، جایی که افراد حتی به محتوای واقعی هم شک میکنند و بر اين اساس جامعه هم به سمت بیتفاوتی و سردرگمی سوق پيدا میكند. جعل عميق اعتماد عمومی به محتوای دیجیتال را بهشدت کاهش داده است. با گذر زمان به نظر میرسد مخاطبان شبكهای بیشازپیش تمایل پیداکردهاند به هر عکس یا فیلم با ديده ترديد بنگرند که این منجر به از دست رفتن اعتماد به رسانهها شده است. در سطح اجتماعی، این کاهش اعتماد میتواند به انزوا یا کاهش مشارکت مدنی منجر شود زیرا افراد کمتر به اطلاعات همرسانی شده در رسانههای اجتماعی اعتماد میکنند.
جعل عمیق بنیان امنیت شخصی و سازمانی را به خطر می اندازد/
در حوزه سیاسی، جعل عمیق میتواند انتخابات را مختل و افکار عمومی را دستکاری کند
از منظر امنیت اطلاعاتی، جعل عميق تهدیدی جدی است و میتواند به حملات سایبری، کلاهبرداری و دستکاری اطلاعات بيانجامد. افزایش چشمگیر تلاشها برای کلاهبرداری و خرابكاري سایبری نشاندهنده این حقيقت است که جعل عمیق بنیان امنیت شخصی و سازمانی را به مخاطره افكنده است. این فناوری میتواند برای فریب افراد در زمینههای مالی یا هویتی استفاده شود، مانند جعل صدا برای دسترسی به حسابها که اعتماد به سامانههای امنیتی را کاهش میدهد. علاوه بر این، در حوزه سایبری، جعل عميق میتواند اطلاعات نادرست را در مقیاسی بزرگ پخش و امنیت ملی را تهدید کند.
در حوزه سیاسی، جعل عميق میتواند انتخابات را مختل و افکار عمومی را دستکاری كنند. برای مثال، فیلمهای جعلی از رهبران سیاسی میتواند رأیدهندگان را فریب و نتایج انتخابات را تغییر دهد که این امر مردمسالاری را تحديد و تهديد میکند. تحقیقات نشان میدهد که جعل عميق گفتمان مردمسالار را به خطر انداخته است. جعل عميق میتواند بحرانهای سیاسی ایجاد کند يا بدان دامن بزند و از طریق افزایش اطلاعات نادرست غیرعمدی و عمدی در سپهر سیاسی اعتماد به فرآیندهای انتخاباتی را به حداقل برساند.
جعل عمیق میتواند حافظه جمعی را دستکاری کند و جوامع را دچار چنددستگی کند
در سطح اجتماعی، تضعیف اعتبار تصویر میتواند به تغییرات در هنجارهای اجتماعی، روابط و فرآیندهای تصمیمگیری منجر شود. جعل عميق میتواند برای آزار، باجخواهی یا آسیب به شهرت مورداستفاده قرار گیرد که اين مهم باعث كاهش اعتماد اجتماعی و افراد را منزوی میكند. همچنین، این فناوری میتواند حافظة جمعی را دستکاری کند و جوامع را دچار چنددستگی و کاهش همبستگی اجتماعی کند.
این پیامدها نشاندهنده نیاز فوری به آموزش سوادهای نوین، اجراي قوانین موضوعه و ارتقا ابزارهای فنی است تا اعتماد و امنیت حفظ شود. بدون این قبیل اقدامات، جامعه در مسلخ پساحقیقت به سوگ مرگ حقیقت مينشیند.
جعل عمیق با ایجاد شک کلی به محتوای بصری، جامعه را به سمت بحران معرفتی سوق میدهد
کاهش اعتماد به کاهش مشارکت اجتماعی، افزایش قطبیسازی و حتی بحرانهای عمیق اجتماعی منجر میشود
به نظر شما تهدید اصلی دیپفیک فریب مستقیم مخاطب است، یا فرسایش تدریجی اعتماد عمومی به تصویر و ویدئو بهعنوان شواهد واقعی؟
هر دو جنبه تهدیدآمیزند اما كاهش تدریجی اعتماد عمومی به محتوای تصویری محل نگراني مضاعف است. گزارشها حاكي از آن است که تأثیر بلندمدت جعل عميق بر اعتماد عمومی عمیقتر و فراگیرتر است، زیرا حتی بدون فریب مستقیم یک فرد، جعل عميق میتواند در جامعه شک کلی به محتوای بصری ایجاد کند و آن را به سمت بحران معرفتی سوق دهد. فریب مستقیم زمانی رخ میدهد که جعل عميق برای دستکاری باورهای یک فرد یا گروه خاص استفاده شوند، مانند فيلمهای جعلی از سیاستمداران که سخنان دروغین میگویند یا کلاهبرداریهای مالی که با صدای ساختگي انجام میشود. این تهدید واقعی است و میتواند به ضررهای مالی، آسیب روانی یا حتی خشونت منجر شود بااینحال، این جنبه اغلب محدود به مواردي خاص است و با ابزارهای تشخیص یا آموزش، میتوان آن را مدیریت کرد؛ اما تهدید جدي در زوال تدریجی اعتماد عمومی است، جایی که حتی بدون فریب مستقیم، وجود این فناوری باعث میشود افراد به تمام محتواهای بصری شک کنند. این پدیده به آلودگی اطلاعاتی منجر میشود و اعتماد را از رسانهها سلب میكند. در حوزههایی مانند بهداشت، امنیت سایبری و انتخابات، این كاهش اعتماد میتواند به کاهش مشارکت اجتماعی، افزایش قطبیسازی و حتی بحرانهای عميق اجتماعی منجر شود بهطور مثال وقتی هر صوت و تصوير ظرفیت جعلی بودن یافت؛ اعتماد به سامانههای احراز هویت صوتی یا تصویری از بین میرود و یک زیستبوم فریب ایجاد میشود که اعتماد دیجیتال را بهطورکلی از جامعه سلب میکند.
اقدام لازم و عاجل برای آموزش و یادگیری سوادهای نوین در قالب آموزشهای عمومی بسیار ضروری است
در پايان تصريح میشود بهرغم وجود تمامي كاستيها و ناكارآمديها، در هنگامهاي كه ايران عزيز بهشدت درگير نبرد روايتهاست و افكار عمومي آماج اخبار جعلي، تحليلهاي مغرضانه، وارونه نشان دادن واقعيتها، پنهان كردن جلوههاي اميدبخش، بزرگ كردن عيوب كوچك و كوچك نشان دادن يا انكار محسنات بزرگ قرار دارد، اقدام لازم و البته عاجل براي آموزش و یادگیری سوادهای نوین در قالب آموزشهاي عمومی بسيار ضروری است تا آحاد ملت بتوانند جهت حفظ كيان و تماميت سرزميني به شكستن اين حصر تبليغاتی مبادرت ورزند.