شناسهٔ خبر: 71464930 - سرویس سیاسی
نسخه قابل چاپ منبع: مشرق | لینک خبر

کشتار از مبدأ سایبر

ارتش عبری در یک‌سال گذشته از هوش مصنوعی استفاده زیادی علیه مردم غزه کرده است. وابستگی اسرائیل به الگوریتم‌ها در جنگ اخیر برایش مشکلاتی را نیز در پی ‌داشت.

صاحب‌خبر -

به گزارش مشرق، تصور کنید در یکی از مراکز فرماندهی ارتش اسرائیل یک افسر اطلاعاتی بدون اینکه حتی یک تصویر زنده از میدان نبرد ببیند، روی صفحه‌نمایش رایانه‌اش مشاهده می‌کند: «هدف شناسایی شد.» هوش مصنوعی پس از پردازش هزاران داده به این نتیجه رسیده که فرد موردنظر عضو یکی از شاخه‌های نظامی‌حزب‌الله یا گروه‌های فلسطینی است و باید ترور شود. تصمیم در عرض چند ثانیه گرفته شده و حمله انجام می‌شود.

جهش هوشمندانه

تمایل اسرائیل به هوش مصنوعی مدت‌ها قبل از درگیری‌های فعلی آغاز شد. در سال ۲۰۲۰، یوسی سارئیل، از حامیان جدی هوش مصنوعی که به‌تازگی از آمریکا برگشته بود فرماندهی واحد جاسوسی ۸۲۰۰ اسرائیل را برعهده گرفت.

سارئیل درکتابش تحت عنوان «تیم انسان-ماشین» از کاربرد بالقوه‌ هوش مصنوعی در جنگ‌های آینده نوشت: چگونه می‌توان هم‌افزایی بین هوش انسانی و مصنوعی ایجاد کرد که دنیای ما را متحول می‌کند؟ هوش مصنوعی با دقت و سرعت بالا شناسایی و هدف‌گیری را بهبود می‌بخشد و مانند یک «کارخانه تولید هدف» عمل می‌کند و این فناوری محدودیت‌های انسانی را کاهش می‌دهد.

تمرکز یوسی سارئیل بر کاربرد هوش مصنوعی، سیستم پردازش اطلاعات واحد ۸۲۰۰ را دگرگون کرد. به‌عنوان مثال، قبل از استفاده گسترده از هوش مصنوعی کشف تونل‌های حزب‌الله با استفاده از حسگرهای لرزه‌ای و نیروی انسانی زمان‌بر بود. اما در نبرد اخیر از الگوریتم‌های یادگیری ماشینی برای شناسایی الگوهای حرکتی زمین و هشدار به‌موقع و سریع درباره تونل‌ها استفاده شد. مثلا اگر در یک منطقه تغییری در الگوی گرمایی زمین مشاهده می‌شد، سیستم هوش مصنوعی هشدار می‌داد که احتمالا تونلی در حال حفر شدن است.

همچنین پیش از این تحلیل‌گران باید کلمات رمز مکالمات (مثلا هندوانه یعنی بمب) را شناسایی می‌کردند، اما اکنون هوش مصنوعی به‌طور خودکار الگوهای مشکوک را شناسایی کرده و هشدار می‌دهد. مثلا اگر افراد زیادی از کلمه «هندوانه» در یک بازه زمانی کوتاه و در منطقه خاصی استفاده می‌کردند سیستم هشدار می‌داد که احتمالا این یک کد رمزی برای عملیات نظامی‌ است.

فضای ابری، میدان جنگ

علاوه بر کاربرد پررنگ هوش مصنوعی در نبرد اخیر استفاده از زیرساخت ابری پلتفرم‌های قدرتمندی مانند گوگل و آمازون و مایکروسافت برای ذخیره و پردازش اطلاعات امنیتی و نظامی، موانع پیش روی اسرائیل را در پردازش و تحلیل اطلاعات برداشت زیرا داده‌های مرتبط با جنگ و تحلیل‌های هوش مصنوعی به‌جای اینکه روی سرورهای محلی اسرائیل باشند روی سرورهای ابری شرکت‌های آمریکایی پردازش می‌شدند.

برای مثال پروژه‌ نیمبوس (Nimbus)، یک قرارداد ۲.۱ میلیارد دلاری که بین دولت اسرائیل و شرکت آمازون و گوگل امضا شد و فضای ابری این دو پلتفرم را در اختیار اهداف نظامی ‌ارتش اسرائیل قرار داد. این پلتفرم‌ها با امنیت بالا، قابلیت دسترسی و پردازش همزمان هزاران داده امکان ارتقا بدون نیاز به زیرساخت‌های جدید به اهداف نظامی ‌اسرائیل کمک قابل‌توجهی کردند. علاوه‌بر این، کاهش هزینه‌های نگهداری و به‌روزرسانی سرورها هم کارایی آن‌ها را افزایش داد.

پروژه‌ نیمبوس از ابتدا با اعتراضات داخلی در گوگل و آمازون روبه‌رو شد. برخی از کارکنان این شرکت‌ها معتقد بودند این قرارداد برای نظارت بر فلسطینیان و مدیریت داده‌های امنیتی اسرائیل استفاده می‌شود. در سال ۲۰۲۳، به دلیل این نگرانی‌ها تعدادی از کارمندان گوگل استعفا دادند یا دست به اعتصاب زدند.

کشتار از مبدأ سایبر

وقتی الگوریتم‌ها فرمان می‌دهند

Lavender
"Lavender" (لوندر به معنای اسطوخودوس) نام یکی از سیستم‌های هوش مصنوعی است که داده‌های مختلف را از طریق تصاویر ماهواره‌ای، ارتباطات مخابراتی و شبکه‌های اجتماعی (مثل مشارکت در گروه‌های واتس‌آپ، تغییر شماره تلفن، عکس‌ها و روابط اجتماعی) جمع‌آوری می‌کرد تا الگوهای رفتاری و تحرکات مشکوک را شناسایی کند و در نهایت هم لیست افرادی که باید ترور شوند را در اختیار فرماندهان نظامی ‌قرار می‌داد. این سیستم برای شناسایی افراد مظنون به ارتباط با شاخه‌های نظامی‌ حماس و جهاد اسلامی ‌طراحی شده بود که در جنگ اخیر برای ترور فرماندهان حزب‌الله هم مورد استفاده قرار گرفت.

در اوایل جنگ غزه، لوندر حدود ۳۷۰۰۰ فلسطینی را به‌عنوان شبه‌نظامیان مظنون شناسایی کرد. این سیستم حتی افرادی را که الگوهای ارتباطی مشابه با اعضای گروه‌های حماس یا جهاد اسلامی ‌داشتند، مانند افسران پلیس یا پرسنل دفاع مدنی را هم به لیست هدف‌های حملات اضافه می‌کرد. یکی از نظامیان اسرائیلی می‌گوید: «به ازای هر هدفی که این سیستم برایش تعیین می‌کرد، فقط ۲۰ ثانیه زمان می‌گذاشت و به‌عنوان یک انسان نقشی جز تایید نهایی نداشته است.»

لوندر، رزمندگان حماس را به دو دسته «رده‌پایین» و «رده‌بالا» تقسیم می‌کرد و به هرکدام از ساکنان نوار غزه، عددی بین ۱ تا ۱۰۰ می‌داد. هر چه عدد مربوط به یک فرد، به ۱۰۰ نزدیک‌تر بود، به این معنا بود که به تشکیلات حماس و دیگر گروه‌های مقاومت در نوار غزه نزدیک‌تر بوده و هدفی مهم برای ترور است. مدتی پیش گاردین به گزارشی اشاره کرد که طبق آن، ارتش اسرائیل برای ترور یک رزمنده‌ رده‌پایین، تا ۲۰ تلفات غیرنظامی ‌را مجاز می‌دانست و حتی برای فرماندهان ارشد تا ۱۰۰ تلفات نیز مشکلی نمی‌دید.

نوع بمبی که برای اهداف به کار می‌رفت، متفاوت بود. بمب‌های گنگ (فاقد سیستم هدایت) برای اهداف رده‌پایین و سلاح‌های هدایت‌شونده برای اهداف رده‌بالاتر مانند رهبران مقاومت. بمب‌های هدایت‌ناپذیر ممکن بود تا ۳۰ متر از هدف تعیین‌شده خطا داشته باشند که می‌توانست فاصله بین یک مرکز مشکوک مربوط حماس با محل اسکان آوارگان و مردم غیر نظامی ‌باشد. به‌کارگیری این بمب‌ها یکی از عوامل آمار بالای تلفات غیرنظامیان در غزه بود.

Gospel
درکنار لوندر که متمرکز بر شناسایی و انتخاب اهداف انسانی برای ترور بود، سیستم"Gospel" (گاسپل به معنای انجیل) برای تحلیل و انتخاب اهداف نظامی‌ سخت مانند ساختمان‌های فرماندهی، مراکز ارتباطی و انبارهای تسلیحات به کار گرفته شد و در جنگ اخیر برای هدف‌گیری زیرساخت‌های مهم حزب‌الله و حماس به کار رفت. گاسپل علاوه بر ساختمان‌ها تحرکات لجستیکی را هم بررسی می‌کرد.

مثلا اگر مکانی که قبلا غیرنظامی ‌بود ناگهان شاهد افزایش حمل‌ونقل تجهیزات خاص می‌شد، می‌توانست نشانه‌ای از وجود یک پایگاه نظامی ‌مخفی باشد. در نبرد اخیر، گاسپل تصویری جامع از فعالیت‌ها و مکان‌های حماس و حزب‌الله فراهم کرد که در روند ایجاد فهرست هدف‌های ترور اسرائیل بسیار مهم بود.

آویو کوچاوی، رئیس سابق ستاد کل ارتش اسرائیل گفت در طول جنگ ۱۱ روزه اسرائیل با حماس در سال ۲۰۲۱، گاسپل روزانه ۱۰۰ هدف برایشان تولید می‌کرده درحالی‌که قبل از استفاده از آن اسرائیل در طول یک سال می‌توانست فقط حدود ۵۰ هدف را در غزه شناسایی کند.

?Where is Daddy
با به‌کارگیری اطلاعات به‌دست‌آمده از لوندر سیستم دیگری با نام "?Where is Daddy"(بابا کجاست؟) حرکات افرادی را که قبلا لوندر شناسایی کرده بود، از طریق ردیابی تلفن‌هایشان، تحلیل مکالمات و پیام‌ها یا ارتباطات و تصاویر ماهواره‌ای دنبال می‌کرد. وقتی فرد هدف به خانه‌اش بازمی‌گشت سیستم این حضور را به‌عنوان تأیید هویت او در نظر می‌گرفت.

در بسیاری از موارد، حمله هوایی بلافاصله پس از این تأیید انجام می‌شد که می‌توانست نه‌تنها فرد هدف، بلکه خانواده او و دیگر افراد در ساختمان را نیز هدف قرار بگیرد. یکی از افسران اطلاعاتی اسرائیل در مصاحبه با گاردین گفت: «ما علاقه‌ای به کشتن عوامل حماس تنها زمانی که در یک ساختمان نظامی ‌بودند یا درگیر یک فعالیت نظامی ‌بودند، نداشتیم. بمباران خانه یک خانواده بسیار ساده‌تر است. این سیستم برای جست‌وجوی آنها در این شرایط ساخته شده است.» این سیستم به‌روشنی مرز میان هدف‌گیری نظامیان و غیرنظامیان را از بین برد و در کنار گاسپل و لوندر، عامل دیگر افزایش قابل‌توجه تلفات غیرنظامی‌که اکثرشان زنان و کودکان بودند، شد.

این موضوع واکنش نهادهای حقوق بشری را در پی داشت. صلیب سرخ در این رابطه گفت «تعهدات قانونی و مسئولیت‌های اخلاقی در جنگ نباید به ماشین‌ها و نرم‌افزارها سپرده شود.»

چالش‌های هوش مصنوعی

وابستگی اسرائیل به الگوریتم‌ها در جنگ اخیر برایش مشکلاتی را نیز در پی ‌داشت. سیستم‌های هوش مصنوعی بدون خطا نبودند و در بسیاری از مواقع غیرنظامیان را صرفا به دلیل الگوی رفتاری مشابه با یک رزمنده به‌عنوان هدف شناسایی می‌کردند.

درنهایت، بسیاری از افرادی که در لیست‌های کشتار تولیدشده توسط هوش مصنوعی قرار می‌گرفتند، رزمنده نبودند. علاوه‌براین، حزب‌الله و حماس بارها توانستند با تاکتیک‌های فریب و روش‌های خلاقانه، الگوریتم‌های هوش مصنوعی را دور بزنند. برای مثال، حزب‌الله با ارسال پهپادهای فریب و تغییر محل نیروها، سیستم‌های شناسایی را گمراه می‌کرد و حماس با حملات غیرمنتظره، هوش مصنوعی اسرائیل را به چالش می‌کشید.

میمران، که پیش‌تر وکیل ارتش بوده معتقد است هوش مصنوعی در شرایط پیچیده و پرتنش جنگ نمی‌تواند به‌درستی تصمیم بگیرد و آویو کوخاوی، رئیس سابق ستاد ارتش اسرائیل نیز معتقد است هوش مصنوعی ممکن است خارج از کنترل انسانی تصمیمات خودش را بگیرد و سبب بروز خطا شود.