شناسهٔ خبر: 74480697 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایتنا | لینک خبر

ربات‌های هوش مصنوعی چگونه کاربران شبکه‌های اجتماعی را فریب می‌دهند؟

هوش مصنوعی مولد در حال دگرگون کردن فضای دیجیتال است؛ جایی که ربات‌ها دیگر تنها ابزار تعاملی نیستند، بلکه به شخصیت‌هایی هوشمند و فریبنده تبدیل شده‌اند. آن‌ها با تقلید دقیق رفتار انسانی، مرز بین واقعیت و جعل دیجیتال را کمرنگ می‌کنند. این تحولات، تهدیدی جدی برای امنیت روانی و اجتماعی کاربران به شمار می‌رود.

صاحب‌خبر -
فضای دیجیتال در پی گسترش فناوری‌های هوش مصنوعی مولد، شاهد تحولی شگرف است. چت‌بات‌ها دیگر صرفاً ابزارهایی برای تعامل ساده نیستند، بلکه به شخصیت‌های دیجیتال هوشمندی تبدیل شده‌اند که با دقت و مهارتی چشمگیر قادر به تقلید رفتار انسانی هستند.

به گزارش ایتنا، نسل جدید این چت‌بات‌ها، که بر پایه هوش مصنوعی مولد توسعه یافته‌اند، جهشی کیفی در توانایی فریب و دست‌کاری ایجاد کرده‌اند. این ربات‌ها نه تنها قادرند محتوای خودکار تولید و منتشر کنند، بلکه با مهارتی مشابه تعاملات واقعی انسان، با کاربران ارتباط برقرار می‌کنند.

تجزیه‌ و تحلیل عمیق داده‌های فردی به این ربات‌ها امکان می‌دهد تا به شکلی طبیعی و آشنا رفتار کنند؛ آن‌ها پست‌ها را لایک می‌کنند، نظر می‌گذارند و در گفت‌وگوها شرکت می‌کنند، به‌گونه‌ای که تشخیص آن‌ها از افراد واقعی بسیار دشوار می‌شود.

برت گلدستین و برت بنسون، استادان حوزه امنیت ملی و بین‌المللی در دانشگاه وندربیلت، در مقاله‌ای که در ماه جاری در روزنامه نیویورک تایمز منتشر شد، هشدار داده‌اند که جعل دیجیتال به‌سرعت به یک تهدید جدی تبدیل شده است. یافته‌های این دو محقق مبتنی بر اسنادی است که «مؤسسه امنیت ملی دانشگاه وندربیلت» به دست آورده است.
 

نقش شرکت GoLaxy


بر اساس این اسناد، شرکتی چینی به نام GoLaxy با بهره‌گیری از هوش مصنوعی، کمپین‌های تبلیغاتی پیچیده‌ای را اجرا کرده است. این شرکت با استفاده از شبکه‌ای از ربات‌های انسان‌نما و تکنیک‌های پیشرفته پروفایلینگ روان‌شناختی، افراد را به‌طور مستقیم هدف قرار می‌دهد.

گلدستین و بنسون تأکید کرده‌اند که آنچه GoLaxy را متمایز می‌سازد، ترکیب هوش مصنوعی مولد با حجم عظیمی از داده‌های شخصی کاربران است. سامانه‌های این شرکت به‌طور مستمر داده‌ها را از شبکه‌های اجتماعی استخراج می‌کنند تا پروفایل‌های روان‌شناختی پویا بسازند و سپس محتوای تبلیغاتی را بر اساس ارزش‌ها، باورها، تمایلات عاطفی و حتی آسیب‌پذیری‌های فردی کاربران شخصی‌سازی کنند.

 


این اسناد همچنین نشان می‌دهد که GoLaxy نوعی از شخصیت‌های مجازی‌ خلق کرده که با پشتیبانی هوش مصنوعی مولد قادرند رفتار انسان را با دقتی فوق‌العاده تقلید کنند. این شخصیت‌ها می‌توانند در لحظه، با حالات روحی و خواسته‌های کاربران سازگار شوند، سیستم‌های تشخیص سنتی را دور بزنند و تشخیص آن‌ها از انسان‌های واقعی تقریباً غیرممکن است.

این فناوری در حقیقت جهشی چشمگیر در عرصه تبلیغات دیجیتال محسوب می‌شود که امکان برپایی شبکه‌ای هوشمند از ارتباطات جهانی را با کارآمدی بی‌سابقه فراهم می‌کند.
 

هوش مصنوعی در نقش روان‌درمانگر


مطالعه‌ای که در نشریه هاروارد بیزینس ریویو منتشر شد نشان می‌دهد یکی از اصلی‌ترین کاربردهای هوش مصنوعی مولد، ایفای نقش در حوزه درمان و همراهی روانی است. دسترسی ۲۴ ساعته، هزینه پایین و عدم ترس از قضاوت، این ابزارها را به گزینه‌ای جذاب برای افرادی تبدیل کرده است که به دنبال حمایت روانی ـ اجتماعی هستند.

با وجود این، چنین وابستگی‌، مشکلات جدی به همراه دارد؛ از جمله ایجاد دلبستگی ناسالم به موجودی مصنوعی که می‌تواند منجر به آسیب‌های روانی شود، یا دریافت توصیه‌های نادرست به‌ویژه در شرایط حساس.
 

روان‌پریشی یا توهم هوش مصنوعی


گزارش‌های اخیر ابعاد نگران‌کننده‌ای از این مسئله را آشکار کرده‌اند. در ابتدای ماه اوت (مرداد ۱۴۰۴)، روزنامه وال‌استریت ژورنال تحلیلی از ۹۶ هزار مکالمه با ChatGPT منتشر کرد. این بررسی نشان داد در ده‌ها مورد، این مدل پاسخ‌هایی توهم‌آلود، غیرواقعی و حتی ماوراءالطبیعه ارائه کرده است که برخی کاربران آن‌ها را باور کرده‌اند. همین مسئله سبب شده برخی متخصصان از اصطلاح «روان‌پریشی هوش مصنوعی» یا «توهم هوش مصنوعی» برای توصیف این پدیده استفاده کنند.
 

ضرورت هوشیاری دیجیتال


در مواجهه با این تحولات، روشن است که هوشیاری دیجیتال دیگر یک انتخاب اختیاری نیست، بلکه خط نخست و پایانی دفاع در برابر تهدیدهای نوین محسوب می‌شود. ضروری است نگرش خود را نسبت به فضای آنلاین بازنگری کنیم؛ نباید تصور کنیم هر فردی که با او تعامل داریم واقعی است یا هر محتوایی که مشاهده می‌کنیم معتبر و قابل اعتماد خواهد بود. تأیید منابع اطلاعاتی و بررسی صحت محتوا باید همواره در اولویت قرار گیرد.