شناسهٔ خبر: 69039318 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: همشهری آنلاین | لینک خبر

به هوش مصنوعی این اطلاعات را ندهید!

شما باید هنگام صحبت با چت‌بات‌های آنلاین مانند ChatGPT خیلی محتاط باشید. باید حواس‌تان باشد، خطر سرقت هویت یا دسترسی غیرمجاز به حساب‌های بانکی را به‌دلیل یک اشتباه رایج به جان نخرید.

صاحب‌خبر -

به گزارش همشهری آنلاین، روزنامه سان در این خصوص با یک کارشناس امنیتی برجسته صحبت کرده که می‌گوید، استفاده از چت‌بات‌های هوش مصنوعی باید با احتیاط انجام شود.

چت‌بات‌های هوش مصنوعی در همه جا وجود دارند (حتی در اپلیکیشن‌هایی مانند واتساپ) بنابراین مهم است که بدانید چه چیزی باید به آنها بگویید و چه چیزی نگویید.

استوارت گرین، کارشناس امنیت سایبری، هشدار می‌دهد: «چت‌بات‌هایی مانند ChatGPT و ابزارهای مشابه هوش مصنوعی را مانند یک غریبه در نظر بگیرید.

سیستم‌های هوش مصنوعی اغلب دارای یک رابط شبیه به انسان هستند، بنابراین مهم است که با آنها مانند یک فرد بیگانه رفتار کنید.»

قانون سه‌ حرفی

این اصطلاح کمتر شناخته‌شده سه‌حرفی مخفف «اطلاعات شناسایی شخصی» (Personally Identifiable Information) است.

استوارت گفت: «این شامل نام کامل شما، آدرس خانه، آدرس ایمیل، شماره تلفن یا هر نوع شناسایی مثل اطلاعات گذرنامه است. اشتراک‌گذاری PII می‌تواند خطر سرقت هویت، افشای اطلاعات یا دسترسی غیرمجاز به حساب‌های شخصی شما را افزایش دهد. حتی اگر پلتفرم اطلاعات شما را ناشناس کند، همیشه احتمال نشت داده، وجود دارد. البته، لیست اطلاعاتی که نباید با چت‌بات‌های هوش مصنوعی به اشتراک بگذارید فراتر از PII است.»

به هوش مصنوعی این اطلاعات را ندهید!

اطلاعات مالی

چت‌بات‌ها انسان‌گونه هستند و می‌توانند بسیار قانع‌کننده باشند، بنابراین ممکن است به‌راحتی توسط یک هوش مصنوعی فریب بخورید. استوارت می‌گوید: «شماره کارت اعتباری، جزئیات حساب بانکی و رمزهای عبور باید خصوصی نگه داشته شوند. اشتراک‌گذاری داده‌های مالی آنلاین شما را در معرض خطر کلاهبرداری، سرقت یا تقلب قرار می‌دهد اگر این اطلاعات فاش شود. به همان اندازه مهم است که اطلاعات ورود به سیستم خود مانند نام‌های کاربری، رمزهای عبور یا کدهای تأیید دو مرحله‌ای را به اشتراک نگذارید.»

بیشتر بخوانید:

نظر شما