به گزارش مشرق، تصور کنید در یکی از مراکز فرماندهی ارتش اسرائیل یک افسر اطلاعاتی بدون اینکه حتی یک تصویر زنده از میدان نبرد ببیند، روی صفحهنمایش رایانهاش مشاهده میکند: «هدف شناسایی شد.» هوش مصنوعی پس از پردازش هزاران داده به این نتیجه رسیده که فرد موردنظر عضو یکی از شاخههای نظامیحزبالله یا گروههای فلسطینی است و باید ترور شود. تصمیم در عرض چند ثانیه گرفته شده و حمله انجام میشود.
جهش هوشمندانه
تمایل اسرائیل به هوش مصنوعی مدتها قبل از درگیریهای فعلی آغاز شد. در سال ۲۰۲۰، یوسی سارئیل، از حامیان جدی هوش مصنوعی که بهتازگی از آمریکا برگشته بود فرماندهی واحد جاسوسی ۸۲۰۰ اسرائیل را برعهده گرفت.
سارئیل درکتابش تحت عنوان «تیم انسان-ماشین» از کاربرد بالقوه هوش مصنوعی در جنگهای آینده نوشت: چگونه میتوان همافزایی بین هوش انسانی و مصنوعی ایجاد کرد که دنیای ما را متحول میکند؟ هوش مصنوعی با دقت و سرعت بالا شناسایی و هدفگیری را بهبود میبخشد و مانند یک «کارخانه تولید هدف» عمل میکند و این فناوری محدودیتهای انسانی را کاهش میدهد.
تمرکز یوسی سارئیل بر کاربرد هوش مصنوعی، سیستم پردازش اطلاعات واحد ۸۲۰۰ را دگرگون کرد. بهعنوان مثال، قبل از استفاده گسترده از هوش مصنوعی کشف تونلهای حزبالله با استفاده از حسگرهای لرزهای و نیروی انسانی زمانبر بود. اما در نبرد اخیر از الگوریتمهای یادگیری ماشینی برای شناسایی الگوهای حرکتی زمین و هشدار بهموقع و سریع درباره تونلها استفاده شد. مثلا اگر در یک منطقه تغییری در الگوی گرمایی زمین مشاهده میشد، سیستم هوش مصنوعی هشدار میداد که احتمالا تونلی در حال حفر شدن است.
همچنین پیش از این تحلیلگران باید کلمات رمز مکالمات (مثلا هندوانه یعنی بمب) را شناسایی میکردند، اما اکنون هوش مصنوعی بهطور خودکار الگوهای مشکوک را شناسایی کرده و هشدار میدهد. مثلا اگر افراد زیادی از کلمه «هندوانه» در یک بازه زمانی کوتاه و در منطقه خاصی استفاده میکردند سیستم هشدار میداد که احتمالا این یک کد رمزی برای عملیات نظامی است.
فضای ابری، میدان جنگ
علاوه بر کاربرد پررنگ هوش مصنوعی در نبرد اخیر استفاده از زیرساخت ابری پلتفرمهای قدرتمندی مانند گوگل و آمازون و مایکروسافت برای ذخیره و پردازش اطلاعات امنیتی و نظامی، موانع پیش روی اسرائیل را در پردازش و تحلیل اطلاعات برداشت زیرا دادههای مرتبط با جنگ و تحلیلهای هوش مصنوعی بهجای اینکه روی سرورهای محلی اسرائیل باشند روی سرورهای ابری شرکتهای آمریکایی پردازش میشدند.
برای مثال پروژه نیمبوس (Nimbus)، یک قرارداد ۲.۱ میلیارد دلاری که بین دولت اسرائیل و شرکت آمازون و گوگل امضا شد و فضای ابری این دو پلتفرم را در اختیار اهداف نظامی ارتش اسرائیل قرار داد. این پلتفرمها با امنیت بالا، قابلیت دسترسی و پردازش همزمان هزاران داده امکان ارتقا بدون نیاز به زیرساختهای جدید به اهداف نظامی اسرائیل کمک قابلتوجهی کردند. علاوهبر این، کاهش هزینههای نگهداری و بهروزرسانی سرورها هم کارایی آنها را افزایش داد.
پروژه نیمبوس از ابتدا با اعتراضات داخلی در گوگل و آمازون روبهرو شد. برخی از کارکنان این شرکتها معتقد بودند این قرارداد برای نظارت بر فلسطینیان و مدیریت دادههای امنیتی اسرائیل استفاده میشود. در سال ۲۰۲۳، به دلیل این نگرانیها تعدادی از کارمندان گوگل استعفا دادند یا دست به اعتصاب زدند.
وقتی الگوریتمها فرمان میدهند
Lavender
"Lavender" (لوندر به معنای اسطوخودوس) نام یکی از سیستمهای هوش مصنوعی است که دادههای مختلف را از طریق تصاویر ماهوارهای، ارتباطات مخابراتی و شبکههای اجتماعی (مثل مشارکت در گروههای واتسآپ، تغییر شماره تلفن، عکسها و روابط اجتماعی) جمعآوری میکرد تا الگوهای رفتاری و تحرکات مشکوک را شناسایی کند و در نهایت هم لیست افرادی که باید ترور شوند را در اختیار فرماندهان نظامی قرار میداد. این سیستم برای شناسایی افراد مظنون به ارتباط با شاخههای نظامی حماس و جهاد اسلامی طراحی شده بود که در جنگ اخیر برای ترور فرماندهان حزبالله هم مورد استفاده قرار گرفت.
در اوایل جنگ غزه، لوندر حدود ۳۷۰۰۰ فلسطینی را بهعنوان شبهنظامیان مظنون شناسایی کرد. این سیستم حتی افرادی را که الگوهای ارتباطی مشابه با اعضای گروههای حماس یا جهاد اسلامی داشتند، مانند افسران پلیس یا پرسنل دفاع مدنی را هم به لیست هدفهای حملات اضافه میکرد. یکی از نظامیان اسرائیلی میگوید: «به ازای هر هدفی که این سیستم برایش تعیین میکرد، فقط ۲۰ ثانیه زمان میگذاشت و بهعنوان یک انسان نقشی جز تایید نهایی نداشته است.»
لوندر، رزمندگان حماس را به دو دسته «ردهپایین» و «ردهبالا» تقسیم میکرد و به هرکدام از ساکنان نوار غزه، عددی بین ۱ تا ۱۰۰ میداد. هر چه عدد مربوط به یک فرد، به ۱۰۰ نزدیکتر بود، به این معنا بود که به تشکیلات حماس و دیگر گروههای مقاومت در نوار غزه نزدیکتر بوده و هدفی مهم برای ترور است. مدتی پیش گاردین به گزارشی اشاره کرد که طبق آن، ارتش اسرائیل برای ترور یک رزمنده ردهپایین، تا ۲۰ تلفات غیرنظامی را مجاز میدانست و حتی برای فرماندهان ارشد تا ۱۰۰ تلفات نیز مشکلی نمیدید.
نوع بمبی که برای اهداف به کار میرفت، متفاوت بود. بمبهای گنگ (فاقد سیستم هدایت) برای اهداف ردهپایین و سلاحهای هدایتشونده برای اهداف ردهبالاتر مانند رهبران مقاومت. بمبهای هدایتناپذیر ممکن بود تا ۳۰ متر از هدف تعیینشده خطا داشته باشند که میتوانست فاصله بین یک مرکز مشکوک مربوط حماس با محل اسکان آوارگان و مردم غیر نظامی باشد. بهکارگیری این بمبها یکی از عوامل آمار بالای تلفات غیرنظامیان در غزه بود.
Gospel
درکنار لوندر که متمرکز بر شناسایی و انتخاب اهداف انسانی برای ترور بود، سیستم"Gospel" (گاسپل به معنای انجیل) برای تحلیل و انتخاب اهداف نظامی سخت مانند ساختمانهای فرماندهی، مراکز ارتباطی و انبارهای تسلیحات به کار گرفته شد و در جنگ اخیر برای هدفگیری زیرساختهای مهم حزبالله و حماس به کار رفت. گاسپل علاوه بر ساختمانها تحرکات لجستیکی را هم بررسی میکرد.
مثلا اگر مکانی که قبلا غیرنظامی بود ناگهان شاهد افزایش حملونقل تجهیزات خاص میشد، میتوانست نشانهای از وجود یک پایگاه نظامی مخفی باشد. در نبرد اخیر، گاسپل تصویری جامع از فعالیتها و مکانهای حماس و حزبالله فراهم کرد که در روند ایجاد فهرست هدفهای ترور اسرائیل بسیار مهم بود.
آویو کوچاوی، رئیس سابق ستاد کل ارتش اسرائیل گفت در طول جنگ ۱۱ روزه اسرائیل با حماس در سال ۲۰۲۱، گاسپل روزانه ۱۰۰ هدف برایشان تولید میکرده درحالیکه قبل از استفاده از آن اسرائیل در طول یک سال میتوانست فقط حدود ۵۰ هدف را در غزه شناسایی کند.
?Where is Daddy
با بهکارگیری اطلاعات بهدستآمده از لوندر سیستم دیگری با نام "?Where is Daddy"(بابا کجاست؟) حرکات افرادی را که قبلا لوندر شناسایی کرده بود، از طریق ردیابی تلفنهایشان، تحلیل مکالمات و پیامها یا ارتباطات و تصاویر ماهوارهای دنبال میکرد. وقتی فرد هدف به خانهاش بازمیگشت سیستم این حضور را بهعنوان تأیید هویت او در نظر میگرفت.
در بسیاری از موارد، حمله هوایی بلافاصله پس از این تأیید انجام میشد که میتوانست نهتنها فرد هدف، بلکه خانواده او و دیگر افراد در ساختمان را نیز هدف قرار بگیرد. یکی از افسران اطلاعاتی اسرائیل در مصاحبه با گاردین گفت: «ما علاقهای به کشتن عوامل حماس تنها زمانی که در یک ساختمان نظامی بودند یا درگیر یک فعالیت نظامی بودند، نداشتیم. بمباران خانه یک خانواده بسیار سادهتر است. این سیستم برای جستوجوی آنها در این شرایط ساخته شده است.» این سیستم بهروشنی مرز میان هدفگیری نظامیان و غیرنظامیان را از بین برد و در کنار گاسپل و لوندر، عامل دیگر افزایش قابلتوجه تلفات غیرنظامیکه اکثرشان زنان و کودکان بودند، شد.
این موضوع واکنش نهادهای حقوق بشری را در پی داشت. صلیب سرخ در این رابطه گفت «تعهدات قانونی و مسئولیتهای اخلاقی در جنگ نباید به ماشینها و نرمافزارها سپرده شود.»
چالشهای هوش مصنوعی
وابستگی اسرائیل به الگوریتمها در جنگ اخیر برایش مشکلاتی را نیز در پی داشت. سیستمهای هوش مصنوعی بدون خطا نبودند و در بسیاری از مواقع غیرنظامیان را صرفا به دلیل الگوی رفتاری مشابه با یک رزمنده بهعنوان هدف شناسایی میکردند.
درنهایت، بسیاری از افرادی که در لیستهای کشتار تولیدشده توسط هوش مصنوعی قرار میگرفتند، رزمنده نبودند. علاوهبراین، حزبالله و حماس بارها توانستند با تاکتیکهای فریب و روشهای خلاقانه، الگوریتمهای هوش مصنوعی را دور بزنند. برای مثال، حزبالله با ارسال پهپادهای فریب و تغییر محل نیروها، سیستمهای شناسایی را گمراه میکرد و حماس با حملات غیرمنتظره، هوش مصنوعی اسرائیل را به چالش میکشید.
میمران، که پیشتر وکیل ارتش بوده معتقد است هوش مصنوعی در شرایط پیچیده و پرتنش جنگ نمیتواند بهدرستی تصمیم بگیرد و آویو کوخاوی، رئیس سابق ستاد ارتش اسرائیل نیز معتقد است هوش مصنوعی ممکن است خارج از کنترل انسانی تصمیمات خودش را بگیرد و سبب بروز خطا شود.