شناسهٔ خبر: 73877562 - سرویس بین‌الملل
نسخه قابل چاپ منبع: ابنا | لینک خبر

«قتل با هوش مصنوعی»: ایران، قربانی فناوری‌های مرگبار الگوریتمی

در میانه سال ۲۰۲۵، ترور چند شخصیت ایرانی، توجه جهانیان را به سلاح‌هایی جلب کرد که نه فرمانده دارند و نه وجدان؛ تنها کدی در حافظه‌شان کافی‌ست تا تصمیم به مرگ بگیرند.

صاحب‌خبر -

به گزارش خبرگزاری بین‌المللی اهل‌بیت(ع) ـ ابنا ـ ️در عصر هوش مصنوعی، مرگ دیگر به دست انسان رقم نمی‌خورد. سیستم‌هایی ظهور کرده‌اند که بر اساس محاسبات دقیق و الگوریتم‌های یادگیرنده، هدف را شناسایی و در لحظه مناسب نابود می‌کنند، بی‌آن‌که انسانی در تصمیم‌گیری دخیل باشد.

از ترورهای هوشمند در ایران گرفته تا جنگ‌های تمام‌خودکار در اوکراین، جهان با نسلی تازه از سلاح‌ها روبه‌رو است: سلاح‌هایی که فکر می‌کنند، یاد می‌گیرند و می‌کشند. این‌جاست که اخلاق، قانون، و انسانیت وارد تاریک‌ترین آزمون خود در عصر دیجیتال می‌شوند.

دکتر «خالد ولید محمود» متخصص در سیاست‌های سایبری در مقاله‌ای به بررسی این موضوع پرداخته است که به شرح زیر می باشد:

در دهه سوم قرن بیست و یکم، هوش مصنوعی دیگر صرفاً یک ابزار کمکی در زندگی روزمره ما نیست، بلکه به یک بازیگر اصلی در میدان‌های نبرد تبدیل شده است. سیستم‌هایی به‌وجود آمده‌اند که تصمیم‌های مرگ و زندگی را بدون هیچ‌گونه نظارت مستقیم انسانی اتخاذ می‌کنند.

این پدیده که از آن با عنوان «قتل خوارزمی» یاد می‌شود، تحولی بنیادین در تاریخ جنگ‌ها به شمار می‌آید و پرسش‌هایی وجودی درباره آینده درگیری‌های مسلحانه، حدود تصمیم‌گیری انسانی و اخلاق جنگ در عصر دیجیتال مطرح می‌کند.

برآوردها نشان می‌دهند که بیش از ۳۰ کشور در حال حاضر مشغول توسعه سیستم‌های تسلیحاتی خودکار هستند. این سیستم‌ها بر پایه سه ستون استوارند: شبکه‌های حسگر که داده‌ها را از منابع گوناگون جمع‌آوری می‌کنند، الگوریتم‌های یادگیری ماشینی که توان تحلیل الگوها و پیش‌بینی رفتار را دارند، و سامانه‌های اجرایی خودکار که تصمیم‌ها را بدون دخالت مستقیم انسان اتخاذ می‌کنند.

ویژگی بارز این سامانه‌ها توانایی عملکرد آن‌ها در محیط‌های پیچیده است؛ محیط‌هایی که تصمیم‌گیری انسانی در آن‌ها با کندی یا خطا همراه است. مانند عملیات ضدتروریسم یا درگیری‌های شهری با تراکم بالا.

نمونه برجسته‌ای از این فناوری‌ها را می‌توان در ترورهای دقیق شخصیت‌های برجسته ایرانی در اواسط سال ۲۰۲۵ مشاهده کرد.

شواهد نشان می‌دهند که پلتفرم‌های مورد استفاده صرفاً پهپادهای سنتی نبودند، بلکه سیستم‌های هوشمند رزمی بودند که قادر بودند برای هفته‌ها اهداف را تعقیب کنند، حجم عظیمی از داده‌ها را تحلیل کنند، و زمان مناسب برای حمله را با دقت و بر اساس فاکتورهایی چون موقعیت جغرافیایی، وضعیت جوی، تردد غیرنظامیان و حتی تاثیر رسانه‌ای مورد محاسبه قرار دهند. دقت برخی از این عملیات به حدود ۹۲ درصد رسیده است.

خطرناک‌ترین ویژگی این سامانه‌ها، قابلیت یادگیری مداوم آن‌هاست. این سامانه‌ها با برنامه‌ریزی ثابت عمل نمی‌کنند، بلکه با گذشت زمان تغییر می‌کنند، تصمیم‌های خود را بر اساس داده‌ها و تجارب جدید تنظیم می‌کنند. این موضوع اگرچه کارایی آن‌ها را افزایش می‌دهد، اما رفتارشان را غیرقابل پیش‌بینی‌تر نیز می‌سازد.

الگوریتمی که امروز یک تصمیم خاص می‌گیرد، ممکن است فقط یک هفته بعد، رفتاری کاملاً متفاوت از خود نشان دهد.

اینجاست که یک مسئله اخلاقی و حقوقی جدی مطرح می‌شود: چه کسی مسئول است اگر این سامانه‌ها خطایی مرتکب شوند و جان غیرنظامیان را بگیرند؟ آیا مسئولیت با برنامه‌نویس است؟ یا با اپراتور؟ یا با دولت؟ یا اینکه باید هوش مصنوعی را یک بازیگر حقوقی مستقل دانست که فاقد هویت و مسئولیت مشخص است؟

در این زمینه، تجربه اسرائیل یک نمونه برجسته از گذار از بازدارندگی سنتی به بازدارندگی خوارزمی است. با ترکیب توانمندی‌های واحد ۸۲۰۰ در جنگ الکترونیک با استارتاپ‌های فعال در تحلیل داده و پیش‌بینی رفتاری، سامانه‌هایی توسعه یافته‌اند که پیش از آنکه تهدیدی به مرحله ظهور برسد، آن را شناسایی و نابود می‌کنند.

این استراتژی بر اساس قتل پیشگیرانه محاسباتی عمل می‌کند، نه پاسخ به تهدید.

چنین عملیات‌هایی نیازی به حضور انسانی در میدان ندارند. همه چیز از مراکز دیجیتال کنترل می‌شود. هدف رصد می‌شود، شرایط حمله بررسی و تأیید می‌شود، و در کسری از ثانیه حمله انجام می‌گیرد.

این تحول تنها در انحصار آمریکا یا اسرائیل نیست. چین، روسیه، ترکیه و سایر قدرت‌های منطقه‌ای نیز وارد رقابت در توسعه سامانه‌های فرماندهی و جنگ خوارزمی شده‌اند.

در برخی موارد، شبکه‌هایی از هوش مصنوعی طراحی شده‌اند که قادرند بین واحدهای رزمی زمینی، هوایی و دریایی هماهنگی برقرار کنند، بدون هیچ نظارت انسانی، با تحلیل فوری داده‌هایی که از حسگرها و منابع اطلاعاتی آنی به دست می‌آید.

این توانایی تصمیم‌گیری نظامی را سریع‌تر از هر واکنش انسانی می‌سازد. اما در مقابل، خطرات بزرگی نیز دارد: اگر الگوریتم‌های رقیب در میدان برخورد کنند چه می‌شود؟ آیا امکان آغاز جنگ بر اثر یک خطای محاسباتی وجود دارد؟

خطر بزرگ‌تر، انتقال این فناوری به بازیگران غیردولتی است. با گسترش ابزارهای متن‌باز و کاهش هزینه پهپادها، حتی یک فرد دارای مهارت‌های فنی می‌تواند الگوریتمی طراحی کند که فرد خاصی را بر اساس چهره یا سیگنال دیجیتال هدف قرار دهد.

این روند، دریچه‌ای به‌سوی دموکراسی مرگ دیجیتال می‌گشاید؛ جایی که جنگ دیگر تنها در انحصار ارتش‌ها نیست، بلکه عرصه‌ای باز برای مزدوران، هکرها و آشوب‌طلبان خواهد بود.

جنگ، دیگر فقط فیزیکی نیست، بلکه روانی و اطلاعاتی نیز هست. در عملیات‌های مدرن، حملات سایبری مبتنی بر هوش مصنوعی، روحیه دشمن را از طریق پخش اطلاعات نادرست، تولید تصاویر و ویدیوهای جعلی، و بهره‌گیری از حساب‌های جعلی برای ایجاد سردرگمی و تردید، هدف می‌گیرند. این همان جنگ نرم است که پیش از آنکه جسم هدف را بزند، ذهن او را هدف قرار می‌دهد.

همه این تحولات در شرایطی رخ می‌دهند که هیچ چارچوب حقوقی بین‌المللی روشنی برای ساماندهی این سامانه‌های کشنده وجود ندارد.

کنوانسیون‌های موجود، به‌ویژه کنوانسیون ژنو، در زمانی تنظیم شده‌اند که جنگ پدیده‌ای کاملاً انسانی بود. امروز، هیچ توافق‌نامه الزام‌آوری برای نظارت بر سیستم‌های کشتار خودکار یا الزام کشورها به افشای الگوریتم‌های جنگی‌شان وجود ندارد.

در حالی‌که برخی پژوهشگران سعی در گنجاندن ارزش‌های اخلاقی در الگوریتم‌ها دارند، اما ناتوانی در بازنمایی پیچیدگی‌های انسانی، این تلاش‌ها را ناکارآمد کرده است.

الگوریتم نمی‌فهمد که تفاوت بین کودک و دشمنی که بین غیرنظامیان پنهان شده چیست؛ تنها محاسبه می‌کند، و هنگامی که «سطح تهدید» از حدی فراتر رود، حمله را اجرا می‌کند. در چنین حالتی، اخلاق به یک متغیر ریاضی تبدیل می‌شود، نه یک اصل انسانی.

در این جهان جدید، انسان به یک متغیر درون معادله تبدیل شده است. او دیگر تصمیم‌گیرنده نیست، بلکه تنها پذیرنده نتایج است. ممکن است مرگ او در گزارشی پیش‌بینی‌شده ثبت شود که تنها توسط هوش مصنوعی خوانده می‌شود.

اینجاست که بحران واقعی آشکار می‌شود: اگر مرزهای مشخصی برای عملکرد ماشین تعیین نکنیم، به دوره‌ای وارد خواهیم شد که در آن مرگ با فشردن یک دکمه رخ می‌دهد؛ بدون حافظه، بدون پشیمانی، و بدون مسئولیت.

بشر اکنون از مرحله تسلیحات هوشمند کنترل‌شده عبور کرده و به عصری وارد شده است که تسلیحات فکر می‌کنند و تصمیم می‌گیرند. برای نمونه، پهپادهای درگیر در جنگ روسیه و اوکراین، تنها حامل مواد منفجره نیستند، بلکه به سیستم‌هایی تبدیل شده‌اند که می‌توانند محیط میدان را تحلیل کرده و تصمیمات تاکتیکی بدون مداخله انسان بگیرند.

این تحول اساسی، پرسش‌های بنیادینی را مطرح می‌کند: چه کسی مالک واقعی حاکمیت است، وقتی تصمیم‌های جنگ از دست فرماندهان انسانی خارج و به دست الگوریتم‌ها سپرده می‌شود؟

جنگ سایبری نیز بُعدی دیگر به مشکل افزوده است. الگوریتم‌ها تنها در کشتار فیزیکی خلاصه نمی‌شوند، بلکه به کشتار معنوی نیز پرداخته‌اند. فناوری‌های جعل عمیق (Deepfake) قادرند ویدیوها و فایل‌های صوتی بسیار واقعی اما جعلی بسازند که می‌توانند برای نابودی اعتبار افراد یا ایجاد هرج‌ومرج در جوامع استفاده شوند.

در ایران نیز شاهد بوده‌ایم که چگونه این فناوری‌ها می‌توانند به سلاح‌های روانی مرگبار تبدیل شوند، بدون آن‌که حتی یک گلوله شلیک شود.

آینده، سناریوهای نگران‌کننده‌تری را پیش‌رو می‌گذارد: اگر سیستم‌های هوش مصنوعی نظامی آن‌قدر پیشرفت کنند که استراتژی‌های کامل را بدون دخالت انسان طراحی و اجرا کنند چه؟ اگر این سیستم‌ها تاکتیک‌هایی را توسعه دهند که با اهداف سیاسی انسان در تضاد باشند چه؟

خطر اصلی در دقت این تسلیحات نیست، بلکه در فقدان کنترل بر آن‌هاست.

در نهایت، آنچه با آن روبه‌رو هستیم فقط یک پیشرفت تکنولوژیک نیست، بلکه لحظه‌ای سرنوشت‌ساز در تاریخ انسان است. خوارزمی‌های قاتل ما را مجبور می‌کنند که رابطه‌مان را با ماشین، با قدرت، با مسئولیت، و با عدالت دوباره تعریف کنیم.

اگر جامعه جهانی به‌سرعت وارد عمل نشود و قوانین جدیدی برای مهار این قدرت تنظیم نکند، جنگ‌های آینده نه بین ارتش‌ها، بلکه بین الگوریتم‌ها خواهد بود... و ما، به سادگی، به اهداف دیجیتال تبدیل خواهیم شد.

..............................

پایان پیام/ ۲۶۸