به گزارش خبرگزاری بینالمللی اهلبیت(ع) ـ ابنا ـ ️در عصر هوش مصنوعی، مرگ دیگر به دست انسان رقم نمیخورد. سیستمهایی ظهور کردهاند که بر اساس محاسبات دقیق و الگوریتمهای یادگیرنده، هدف را شناسایی و در لحظه مناسب نابود میکنند، بیآنکه انسانی در تصمیمگیری دخیل باشد.
از ترورهای هوشمند در ایران گرفته تا جنگهای تمامخودکار در اوکراین، جهان با نسلی تازه از سلاحها روبهرو است: سلاحهایی که فکر میکنند، یاد میگیرند و میکشند. اینجاست که اخلاق، قانون، و انسانیت وارد تاریکترین آزمون خود در عصر دیجیتال میشوند.
دکتر «خالد ولید محمود» متخصص در سیاستهای سایبری در مقالهای به بررسی این موضوع پرداخته است که به شرح زیر می باشد:
در دهه سوم قرن بیست و یکم، هوش مصنوعی دیگر صرفاً یک ابزار کمکی در زندگی روزمره ما نیست، بلکه به یک بازیگر اصلی در میدانهای نبرد تبدیل شده است. سیستمهایی بهوجود آمدهاند که تصمیمهای مرگ و زندگی را بدون هیچگونه نظارت مستقیم انسانی اتخاذ میکنند.
این پدیده که از آن با عنوان «قتل خوارزمی» یاد میشود، تحولی بنیادین در تاریخ جنگها به شمار میآید و پرسشهایی وجودی درباره آینده درگیریهای مسلحانه، حدود تصمیمگیری انسانی و اخلاق جنگ در عصر دیجیتال مطرح میکند.
برآوردها نشان میدهند که بیش از ۳۰ کشور در حال حاضر مشغول توسعه سیستمهای تسلیحاتی خودکار هستند. این سیستمها بر پایه سه ستون استوارند: شبکههای حسگر که دادهها را از منابع گوناگون جمعآوری میکنند، الگوریتمهای یادگیری ماشینی که توان تحلیل الگوها و پیشبینی رفتار را دارند، و سامانههای اجرایی خودکار که تصمیمها را بدون دخالت مستقیم انسان اتخاذ میکنند.
ویژگی بارز این سامانهها توانایی عملکرد آنها در محیطهای پیچیده است؛ محیطهایی که تصمیمگیری انسانی در آنها با کندی یا خطا همراه است. مانند عملیات ضدتروریسم یا درگیریهای شهری با تراکم بالا.
نمونه برجستهای از این فناوریها را میتوان در ترورهای دقیق شخصیتهای برجسته ایرانی در اواسط سال ۲۰۲۵ مشاهده کرد.
شواهد نشان میدهند که پلتفرمهای مورد استفاده صرفاً پهپادهای سنتی نبودند، بلکه سیستمهای هوشمند رزمی بودند که قادر بودند برای هفتهها اهداف را تعقیب کنند، حجم عظیمی از دادهها را تحلیل کنند، و زمان مناسب برای حمله را با دقت و بر اساس فاکتورهایی چون موقعیت جغرافیایی، وضعیت جوی، تردد غیرنظامیان و حتی تاثیر رسانهای مورد محاسبه قرار دهند. دقت برخی از این عملیات به حدود ۹۲ درصد رسیده است.
خطرناکترین ویژگی این سامانهها، قابلیت یادگیری مداوم آنهاست. این سامانهها با برنامهریزی ثابت عمل نمیکنند، بلکه با گذشت زمان تغییر میکنند، تصمیمهای خود را بر اساس دادهها و تجارب جدید تنظیم میکنند. این موضوع اگرچه کارایی آنها را افزایش میدهد، اما رفتارشان را غیرقابل پیشبینیتر نیز میسازد.
الگوریتمی که امروز یک تصمیم خاص میگیرد، ممکن است فقط یک هفته بعد، رفتاری کاملاً متفاوت از خود نشان دهد.
اینجاست که یک مسئله اخلاقی و حقوقی جدی مطرح میشود: چه کسی مسئول است اگر این سامانهها خطایی مرتکب شوند و جان غیرنظامیان را بگیرند؟ آیا مسئولیت با برنامهنویس است؟ یا با اپراتور؟ یا با دولت؟ یا اینکه باید هوش مصنوعی را یک بازیگر حقوقی مستقل دانست که فاقد هویت و مسئولیت مشخص است؟
در این زمینه، تجربه اسرائیل یک نمونه برجسته از گذار از بازدارندگی سنتی به بازدارندگی خوارزمی است. با ترکیب توانمندیهای واحد ۸۲۰۰ در جنگ الکترونیک با استارتاپهای فعال در تحلیل داده و پیشبینی رفتاری، سامانههایی توسعه یافتهاند که پیش از آنکه تهدیدی به مرحله ظهور برسد، آن را شناسایی و نابود میکنند.
این استراتژی بر اساس قتل پیشگیرانه محاسباتی عمل میکند، نه پاسخ به تهدید.
چنین عملیاتهایی نیازی به حضور انسانی در میدان ندارند. همه چیز از مراکز دیجیتال کنترل میشود. هدف رصد میشود، شرایط حمله بررسی و تأیید میشود، و در کسری از ثانیه حمله انجام میگیرد.
این تحول تنها در انحصار آمریکا یا اسرائیل نیست. چین، روسیه، ترکیه و سایر قدرتهای منطقهای نیز وارد رقابت در توسعه سامانههای فرماندهی و جنگ خوارزمی شدهاند.
در برخی موارد، شبکههایی از هوش مصنوعی طراحی شدهاند که قادرند بین واحدهای رزمی زمینی، هوایی و دریایی هماهنگی برقرار کنند، بدون هیچ نظارت انسانی، با تحلیل فوری دادههایی که از حسگرها و منابع اطلاعاتی آنی به دست میآید.
این توانایی تصمیمگیری نظامی را سریعتر از هر واکنش انسانی میسازد. اما در مقابل، خطرات بزرگی نیز دارد: اگر الگوریتمهای رقیب در میدان برخورد کنند چه میشود؟ آیا امکان آغاز جنگ بر اثر یک خطای محاسباتی وجود دارد؟
خطر بزرگتر، انتقال این فناوری به بازیگران غیردولتی است. با گسترش ابزارهای متنباز و کاهش هزینه پهپادها، حتی یک فرد دارای مهارتهای فنی میتواند الگوریتمی طراحی کند که فرد خاصی را بر اساس چهره یا سیگنال دیجیتال هدف قرار دهد.
این روند، دریچهای بهسوی دموکراسی مرگ دیجیتال میگشاید؛ جایی که جنگ دیگر تنها در انحصار ارتشها نیست، بلکه عرصهای باز برای مزدوران، هکرها و آشوبطلبان خواهد بود.
جنگ، دیگر فقط فیزیکی نیست، بلکه روانی و اطلاعاتی نیز هست. در عملیاتهای مدرن، حملات سایبری مبتنی بر هوش مصنوعی، روحیه دشمن را از طریق پخش اطلاعات نادرست، تولید تصاویر و ویدیوهای جعلی، و بهرهگیری از حسابهای جعلی برای ایجاد سردرگمی و تردید، هدف میگیرند. این همان جنگ نرم است که پیش از آنکه جسم هدف را بزند، ذهن او را هدف قرار میدهد.
همه این تحولات در شرایطی رخ میدهند که هیچ چارچوب حقوقی بینالمللی روشنی برای ساماندهی این سامانههای کشنده وجود ندارد.
کنوانسیونهای موجود، بهویژه کنوانسیون ژنو، در زمانی تنظیم شدهاند که جنگ پدیدهای کاملاً انسانی بود. امروز، هیچ توافقنامه الزامآوری برای نظارت بر سیستمهای کشتار خودکار یا الزام کشورها به افشای الگوریتمهای جنگیشان وجود ندارد.
در حالیکه برخی پژوهشگران سعی در گنجاندن ارزشهای اخلاقی در الگوریتمها دارند، اما ناتوانی در بازنمایی پیچیدگیهای انسانی، این تلاشها را ناکارآمد کرده است.
الگوریتم نمیفهمد که تفاوت بین کودک و دشمنی که بین غیرنظامیان پنهان شده چیست؛ تنها محاسبه میکند، و هنگامی که «سطح تهدید» از حدی فراتر رود، حمله را اجرا میکند. در چنین حالتی، اخلاق به یک متغیر ریاضی تبدیل میشود، نه یک اصل انسانی.
در این جهان جدید، انسان به یک متغیر درون معادله تبدیل شده است. او دیگر تصمیمگیرنده نیست، بلکه تنها پذیرنده نتایج است. ممکن است مرگ او در گزارشی پیشبینیشده ثبت شود که تنها توسط هوش مصنوعی خوانده میشود.
اینجاست که بحران واقعی آشکار میشود: اگر مرزهای مشخصی برای عملکرد ماشین تعیین نکنیم، به دورهای وارد خواهیم شد که در آن مرگ با فشردن یک دکمه رخ میدهد؛ بدون حافظه، بدون پشیمانی، و بدون مسئولیت.
بشر اکنون از مرحله تسلیحات هوشمند کنترلشده عبور کرده و به عصری وارد شده است که تسلیحات فکر میکنند و تصمیم میگیرند. برای نمونه، پهپادهای درگیر در جنگ روسیه و اوکراین، تنها حامل مواد منفجره نیستند، بلکه به سیستمهایی تبدیل شدهاند که میتوانند محیط میدان را تحلیل کرده و تصمیمات تاکتیکی بدون مداخله انسان بگیرند.
این تحول اساسی، پرسشهای بنیادینی را مطرح میکند: چه کسی مالک واقعی حاکمیت است، وقتی تصمیمهای جنگ از دست فرماندهان انسانی خارج و به دست الگوریتمها سپرده میشود؟
جنگ سایبری نیز بُعدی دیگر به مشکل افزوده است. الگوریتمها تنها در کشتار فیزیکی خلاصه نمیشوند، بلکه به کشتار معنوی نیز پرداختهاند. فناوریهای جعل عمیق (Deepfake) قادرند ویدیوها و فایلهای صوتی بسیار واقعی اما جعلی بسازند که میتوانند برای نابودی اعتبار افراد یا ایجاد هرجومرج در جوامع استفاده شوند.
در ایران نیز شاهد بودهایم که چگونه این فناوریها میتوانند به سلاحهای روانی مرگبار تبدیل شوند، بدون آنکه حتی یک گلوله شلیک شود.
آینده، سناریوهای نگرانکنندهتری را پیشرو میگذارد: اگر سیستمهای هوش مصنوعی نظامی آنقدر پیشرفت کنند که استراتژیهای کامل را بدون دخالت انسان طراحی و اجرا کنند چه؟ اگر این سیستمها تاکتیکهایی را توسعه دهند که با اهداف سیاسی انسان در تضاد باشند چه؟
خطر اصلی در دقت این تسلیحات نیست، بلکه در فقدان کنترل بر آنهاست.
در نهایت، آنچه با آن روبهرو هستیم فقط یک پیشرفت تکنولوژیک نیست، بلکه لحظهای سرنوشتساز در تاریخ انسان است. خوارزمیهای قاتل ما را مجبور میکنند که رابطهمان را با ماشین، با قدرت، با مسئولیت، و با عدالت دوباره تعریف کنیم.
اگر جامعه جهانی بهسرعت وارد عمل نشود و قوانین جدیدی برای مهار این قدرت تنظیم نکند، جنگهای آینده نه بین ارتشها، بلکه بین الگوریتمها خواهد بود... و ما، به سادگی، به اهداف دیجیتال تبدیل خواهیم شد.
..............................
پایان پیام/ ۲۶۸