فاطمه مرادخانی: در عصر انفجار دادهها و رقابت برای جلب توجه، فناوری هوش مصنوعی آمده است تا نقش تسهیلگر را در مدیریت اطلاعات ایفا کند اما این نقش با ظهور قابلیتهای خلاصهسازی خودکار در موتورهای جستوجو مرورگرها و شبکههای اجتماعی، از جمله Google Discover و AI Overviews، بهتدریج به یک ابزار شکلدهنده واقعیت تبدیل شده است. فشردهسازی محتوا با هدف سادهسازی اطلاعات، ممکن است در عمل به تقلیل فهم، حذف زمینه و شکلگیری تصویری تحریفشده از واقعیت منجر شود اما آیا ما هنوز مصرفکننده آگاه اطلاعات هستیم یا صرفاً پذیرنده خوراک خبری الگوریتمها؟
گوگل دیسکاور و روایت جهان در چند خط
گوگل در بهروزرسانی جدید خود برای Discover، خلاصههایی تولیدشده توسط مدلهای زبانی هوش مصنوعی را به جای تیتر و لید رسانهها نمایش میدهد. این خلاصهها، بر پایه محتواهای چندین رسانه معتبر تولید میشوند و تنها لوگوهای این رسانهها بدون تیتر یا لینک مشخص، در کنار خلاصه دیده میشود. کاربران با مشاهده این کارتها، بینیاز از کلیک، «جوهره خبر» را بهزعم الگوریتمها دریافت میکنند.
این قابلیت اگرچه بهعنوان ابزاری برای صرفهجویی در زمان معرفی شده، اما چند پرسش بنیادین را پیش میکشد: آیا محتواهای چندلایه، حساس و تحلیلی را میتوان در چند جمله فشرده کرد؟ چه کسی روایت را انتخاب و خلاصه میکند؟ آیا حذف پیچیدگیها، درک ما را افزایش میدهد یا تقلیل میبخشد؟
خلاصهسازی ماشینی؛ بازنویسی بیطرفانه یا بازتعریف واقعیت؟
خلاصههای هوش مصنوعی بر اساس الگوهای آماری و کلیدواژهها تولید میشوند، نه تحلیل عمیق گفتمان. این به آن معناست که ماهیت تحلیل، طنز، کنایه، یا تضادهای موجود در یک گزارش، ممکن است نادیده گرفته شوند یا به شکلی خنثی بازنمایی شوند. نتیجه آن متنی است یکدست، بدون لحن و بیزمینه.
برای مثال، گزارشی درباره بحران پناهجویان که در آن روایتهای متضاد، آمارهای متناقض و دیدگاههای چندجانبه مطرح شده، ممکن است در خلاصهای چندخطی به جملهای بیخطر و خنثی فروکاسته شود. حذف جزئیات، بازچینی جملات، یا اولویتبندی محتوای خاص توسط مدل، میتواند ساختار قدرت، سوگیری یا حتی معنا را تغییر دهد.
مصرف خبر بدون مصرف تحلیل؛ نسل جدید مخاطب منفعل
خلاصهسازی ماشینی، بهویژه وقتی از سوی پلتفرمهایی با میلیاردها کاربر ارائه میشود، در حال شکل دادن به الگوی جدیدی از مصرف رسانهای است. کاربران، بهجای کاوش در منابع، خواندن کامل گزارشها یا بررسی دیدگاههای متضاد، به چند جمله اکتفا میکنند. این عادت، از یک سو سرعت را افزایش داده، اما از سوی دیگر، سطحینگری، اتکای بیچونوچرا به الگوریتم و حذف فرآیند تفکر انتقادی را در پی دارد.
این پدیده بهویژه در حوزههایی مانند سیاست، سلامت عمومی، اقلیم یا امور حقوقی، میتواند اثرات خطرناکی داشته باشد. زیرا مخاطب، به جای روبهرو شدن با پیچیدگی واقعیت، نسخهای مهندسیشده از آن را مصرف میکند؛ نسخهای که ممکن است شفافیت نداشته باشد، منابع مشخصی نداشته باشد و مهمتر از همه، مسئول مشخصی نداشته باشد.
مسئولیت ناپیدا؛ خطای ماشینی و هزینه انسانی
گوگل و دیگر شرکتهای فناوری، هنگام نمایش خلاصهها، هشدار میدهند که این متنها «توسط هوش مصنوعی تولید شدهاند و ممکن است حاوی خطا باشند». این جمله ساده، اگرچه جنبه حقوقی دارد، اما عملاً بار مسئولیت را از دوش پلتفرمها برمیدارد و بر عهده کاربران میگذارد. اگر یک خلاصه اشتباه باشد، دادهای حذف شود، یا درکی نادرست القا شود، هیچ مسیر رسمی برای پاسخخواهی وجود ندارد.
در نتیجه، مخاطب با محتوایی مواجه است که از سوی نهادی بیچهره تولید شده، فاقد امضا، فاقد ارجاع و در بیشتر موارد، فاقد زمینه است.
راهکارهایی برای حفظ واقعیت در عصر الگوریتمها
کارشناسان رسانه، شفافیت در فرآیند خلاصهسازی، الزام به نمایش منبع اصلی، امکان انتخاب میان نسخه کامل و خلاصه و افزودن بافت زمینهای به متنهای کوتاه را از جمله راهکارهای پیشگیرانه میدانند. همچنین، نقش آموزش سواد رسانهای و درک عملکرد هوش مصنوعی در درک مخاطب از خطرات این ابزارها، اهمیت مضاعف دارد.
هوش مصنوعی آمده تا به ما در فهم بهتر دنیا کمک کند، نه آنکه نسخهای فشرده، ناقص و جهتدار از آن را تحمیل کند. اگر خلاصهسازی ماشینی، به ابزار مسلط پلتفرمهای بزرگ تبدیل شود، آنچه در نهایت درک میکنیم، نه تصویر کامل جهان، بلکه بازنمایی سادهشده و قابل کنترل از واقعیت خواهد بود؛ و این، شاید بزرگترین خطرِ هوش مصنوعی در عصر اطلاعات باشد: بازنویسی جهان، در سکوت چند جمله خلاصهشده.
انتهای پیام/