در ادبیات تحلیل سیاست خارجی، نقطه عزیمت تحلیل، مستقیما از تصمیمگیری و محیط تصمیمگیری آغاز میشود. تصمیمات سیاست خارجی هم صرفا توسط مقامهای یک کشور اتخاذ نمیشوند، بلکه این تصمیمات ممکن است ماحصل چانهزنی نهادهای حکومتی و بوروکراتیک یا حاصل یک ائتلاف بینالمللی باشد.
سیاستمداران نیز همانند انسانهای عادی از رویههای تکراری و میانبرهای ذهنی برای غلبه بر پیچیدگیهای ذاتی بسیاری از تصمیمات استفاده میکنند؛ بنابراین سوگیریهای شناختی و عوامل روانشناختی، باورها و برنامههای شخصی آنها میتواند تصمیمگیری را مختل کند و بر انتخابهای آنها تأثیر بگذارد و این میتواند چالش بزرگی برای اتخاذ تصمیمات درست و باکیفیت باشد. علاوه بر این، ماهیت غیرقابل پیشبینی رویدادهای جهانی و بههمپیوستگی موضوعات گوناگون و حضور ذینفعان مختلف با منافع متضاد، تصمیمگیری در سیاست خارجی را چالشبرانگیز می سازد.
تصمیمگیری در سیاست خارجی فرآیند پیچیدهای است که نیازمند تجزیه و تحلیل حجم وسیعی از دادهها، ارزیابی سناریوهای مختلف و در نظر گرفتن دیدگاههای گوناگون است. ظهور هوش مصنوعی فرصتهای جدیدی را برای تقویت و سادهسازی این فرآیند تصمیمگیری ارائه میدهد
فقدان اطلاعات کامل و نیاز به اولویتبندی اهداف رقیب نیز مشکلاتی ایجاد می کند. همچنین تصمیمگیرندگان اغلب با محدودیتهای زمانی و فشار برای اقدام سریع مواجه میشوند و فضای کمی برای تجزیه و تحلیل کامل با بررسی گزینههای جایگزین باقی میماند. در نتیجه انسانها به طور کلی و رهبران و تصمیمگیران سیاست خارجی به طور خاص، تصمیمگیران بدون نقص و کاملی نیستند.
انسانها چه به صورت انفرادی و چه به صورت جمعی برای اتخاذ تصمیمات درست و با کیفیت با چالشها و محدودیتهایی مواجه هستند. این محدودیتها و چالشها نیاز به تحقیقات دقیق، تجزیه و تحلیل مبتنی بر دادهها و رویکردی چندرشتهای و استفاده از ظرفیتهای مختلف مانند هوش مصنوعی برای ارتقای کیفیت تصمیمگیری سیاست خارجی را برجسته میکند.
در سالهای اخیر محققان تلاش کردهاند کیفیت تصمیمگیریها را با توسعه فناوریهای کامپیوتری در جهت افزایش و گسترش تواناییهای انسانی بهبود بخشند. پیشرفت در هوش مصنوعی این هدف را در بسیاری از برنامهها به واقعیت تبدیل کرده است.
افزون بر این، تصمیمگیری در سیاست خارجی فرآیند پیچیدهای است که نیازمند تجزیه و تحلیل حجم وسیعی از دادهها، ارزیابی سناریوهای مختلف و در نظر گرفتن دیدگاههای گوناگون است. ظهور هوش مصنوعی فرصتهای جدیدی را برای تقویت و سادهسازی این فرآیند تصمیمگیری ارائه میدهد.
با استفاده از الگوریتمهای یادگیری ماشین، پردازش زبان طبیعی و تجزیه و تحلیل دادهها، هوش مصنوعی این پتانسیل را دارد که سیاست خارجی را متحول کند. بنابراین استفاده از تمام ابزارها مانند هوش مصنوعی برای بهینه کردن تصمیمات سیاست خارجی و کمک به تصمیمگیران برای گرفتن تصمیمات عاقلانهتر و هوشمندانهتر که بتواند بیشتر منافع ملی کشورها را حفظ کند و نیل به اهداف ملی را محتملتر سازد و از بروز پیامدها و نتایج ناخواسته یا ناگوار چه در سطح داخلی چه در سطح بینالمللی جلوگیری کند بسیار ضروری است.
«سعید میراحمدی» و «علی امیدی» در پاییز ۱۴۰۳ در پژوهشی با عنوان «کاربرد هوش مصنوعی در تصمیمگیری سیاست خارجی؛ ظرفیتها و چالشها» که در فصلنامه علمی پژوهشهای راهبردی سیاست منتشر شد، به بررسی این موضوع پرداختهاند که در ادامه بخشهایی از آن را میخوانیم:
۲ کارکردی که میتوان از هوش مصنوعی در سیاستگذاری انتظار داشت
هوش مصنوعی در دیجیتالی کردن دیپلماسی که خطاهای انسانی را تا حد مشخصی کاهش میدهد، به عنوان یک ابزار مقرون به صرفه در نظر گرفته میشود. هوش مصنوعی میتواند در مذاکرات دیپلماتیک با تجزیه و تحلیل مذاکرات گذشته و پیشبینی نتیجه بحثهای جاری بسیار مفید واقع شود
در خصوص کاربردهای هوش مصنوعی در تصمیمگیری سیاست خارجی دو نوع کاربرد را میتوان در نظر گرفت؛ نخست اینکه تصمیمگیری در سیاست خارجی را در قالب «هوش مصنوعی سیاستمدار» به طور کامل به سیستمهای هوش مصنوعی واگذار کرد که البته این مساله فعلاً در مرحله تئوریک است.
کاربرد دوم این است که از هوش مصنوعی صرفاً برای کمک به تصمیمگیری در سیاست خارجی استفاده کرد. در این کاربرد، هوش مصنوعی به عنوان پشتیبان و مکمل یا مشاور تصمیمگیری به تصمیم گیران کمک کند. در این مقاله به کاربردهای بهرهگیری از هوش مصنوعی در پشتیبانی از تصمیمگیری در سیاست خارجی پرداخته میشود.
توسعه قابلیتهای پیشبینی مبتنی بر هوش مصنوعی
در آینده نه چندان دور استفاده از هوش مصنوعی به بخش جداییناپذیر تصمیمات سیاست خارجی تبدیل میشود. بسیاری بر این باورند که هوش مصنوعی با قابلیت پیشبینی رویدادهای بینالمللی در تغییر ژئوپلیتیک تأثیر خواهد داشت. ماشینهای هوش مصنوعی بر اساس الگوریتمهای بهینهسازی و راستیآزمایی برنامهریزی شدهاند که به درک بهتر اطلاعات پراکنده سیاسی کمک میکنند. این سیستمها میتوانند رویدادهای آینده را پیشبینی کنند و از این طریق ممکن است فرصتهایی را برای تصمیمگیران عرصه سیاست خارجی برای درک رویدادهای احتمالی آینده، پیشبینی مواضع و تاکتیکهای دیگران فراهم کنند. یکی از این نمونهها در عرصه سیاست خارجی، امکان مدلسازی مذاکرات پیچیده است.
بسیاری از دولتها خواه ناخواه، در حال توسعه قابلیتهای پیشبینی مبتنی بر هوش مصنوعی هستند. هوش مصنوعی حتی در دیجیتالی کردن دیپلماسی که خطاهای انسانی را تا حد مشخصی کاهش میدهد، به عنوان یک ابزار مقرون به صرفه در نظر گرفته میشود. هوش مصنوعی میتواند در مذاکرات دیپلماتیک با تجزیه و تحلیل مذاکرات گذشته و پیشبینی نتیجه بحثهای جاری بسیار مفید واقع شود. این موضوع با این واقعیت که توانایی یک سیستم هوش مصنوعی برای ذخیره و مقایسه تعداد زیادی از دادههای تاریخی، تقریباً به طور قطع از یک انسان یا گروهی از انسانها بیشتر است، پشتیبانی و تقویت میشود.
فناوری که در مسائل سیاسی بیطرف است و تصمیمات عجولانه و احساسی نمیگیرد
یکی دیگر از مزایای هوش مصنوعی بیطرفی در مسائل سیاسی است. برخلاف اپراتورهای انسانی، سیستمهای هوش مصنوعی تحت تأثیر علایق یا احساساتی مانند ترس قرار نمیگیرند و تکانشگری تصمیمات عجولانه گرفتن و هیجانی یا اجبار روانی برای تلافی در برابر دشمن را احساس نخواهند کرد. بنابراین بهرهگیری از هوش مصنوعی به کاهش تأثیر علایق، احساسات و عواطف انسانی بر تصمیمات سیاست خارجی منجر خواهند شد.
پیشرفتهای هوش مصنوعی باعث کاهش هزینههای پیشبینی آماری و بهبود آن میشود. هوش مصنوعی با توانایی در پردازش و تجزیه و تحلیل حجم بالایی از دادهها در ارزیابی ریسک تصمیمات به تصمیمگیران کمک کرده و منجر به کاهش خطا در تصمیمگیری میشود. همچنین باعث صرفهجویی و جلوگیری از هدر رفت منابع ملی کشورها خواهد شد.
برخلاف اپراتورهای انسانی، سیستمهای هوش مصنوعی تحت تأثیر علایق یا احساساتی مانند ترس قرار نمیگیرند و تکانشگری تصمیمات عجولانه گرفتن و هیجانی یا اجبار روانی برای تلافی در برابر دشمن را احساس نخواهند کرد
با توجه به اینکه تصمیمگیری مستلزم بررسی و در نظر گرفتن متغیرها و پارامترهای متعدد است و تصمیمگیران سیاست خارجی هنگام تصمیمگیری باید جنبههای مختلف یک تصمیم را مورد واکاوی قرار دهند، قدرت پردازش سریع متغیرهای متعدد توسط هوش مصنوعی باعث افزایش سرعت تصمیمگیری و صرفهجویی در زمان خواهد شد.
دادهها ممکن است هوش مصنوعی را دچار خطا کنند!
یکی از موانع اصلی با چالشهای پیادهسازی هوش مصنوعی در تصمیمگیری بحث در دسترس بودن دادهها است. دادهها اغلب ناهماهنگ یا ناسازگار و با کیفیت پایین هستند که این مساله چالشهایی را برای طراحی سیستمهای پشتیبان تصمیمگیری مبتنی بر هوش مصنوعی ایجاد میکنند.
کیفیت سیستمهای هوش مصنوعی به کیفیت دادههایی بستگی دارد که این سیستمها توسط آنها آموزش دیدهاند. اگر این دادهها مغرضانه یا ناقص باشند میتوانند نتایج تبعیضآمیز را تداوم بخشند. از آنجایی که دادههای آموزشی از خروجی انسان استخراج میشود، سیستمهای هوش مصنوعی میتوانند در نهایت تعصبات انسانی مانند نژادپرستی و تبعیض جنسی را تقلید و تکرار کنند. برای غلبه بر این مساله، باید از همان ابتدا یک استراتژی روشن برای منبع دادههایی که هوش مصنوعی به آن نیاز دارد، وجود داشته باشد در حوزه تصمیمگیری در سیاست خارجی مساله دسترسی به دادههای با کیفیت و دقیق به ویژه دادههای دقیق در مورد کشورهای دیگر چالش برانگیزتر است. این امر ناشی از این موضوع است که دولتها در خصوص بسیاری از مسائل به دلایل امنیتی حاضر به شفافسازی نیستند و از قضا دادههایی را که برای طراحی سیستمهای هوش مصنوعی حیاتی هستند جزء اطلاعات فوق محرمانه طبقهبندی میکنند که هر گونه افشای آنها آسیب به امنیت ملی تلقی می شود.
همچنین بسیاری از دانشمندان داده نشان دادهاند که سیستمهای طبقهبندی هوش مصنوعی در برابر اختلالات خصمانه بسیار آسیبپذیر هستند. دشمنان میتوانند دادههای جعلی را منتشر و ارائه دهند. به عنوان مثال تصاویر حمله هوایی نادرست در رادار باعث طبقهبندی اشتباه با هشدارهای اشتباه میشود که میتواند به عنوان تهدید واقعی در یک سیستم هوش مصنوعی تلقی شود.
از آنجایی که دادههای آموزشی از خروجی انسان استخراج میشود، سیستمهای هوش مصنوعی میتوانند در نهایت تعصبات انسانی مانند نژادپرستی و تبعیض جنسی را تقلید و تکرار کنند
نگرانیها و مسائل اخلاقی استفاده از هوش مصنوعی
استفاده نامناسب و غیراخلاقی از هوش مصنوعی چالش مهم دیگری است که اخیراً به یک نگرانی بزرگ تبدیل شده است. چندین شرکت بزرگ فناوری با اجازه دادن به استفاده نادرست و غیر اخلاقی از دادهها و هوش مصنوعی در پلتفرمهای خود در گیر رسواییهایی شدهاند. معروفترین آنها رسوایی کمبریج آنالایتیکا است. فیسبوک به شرکت مشاوره کمبریج آنالایتیکا که از الگوریتمهای هوش مصنوعی برای هدفیابی و تبلیغات سیاسی در انتخابات ۲۰۱۶ آمریکا استفاده میکرد به اطلاعات حساس ۸۵ میلیون کاربر اجازه دسترسی داد.
وقایعی از این دست، نشان داد که چگونه دادههای جمعآوری شده از طریق هوش مصنوعی در برابر نگرانیهای حفظ حریم خصوصی، آسیبپذیر هستند. این امر نگرانیهای قابل توجهی را در رابطه با امنیت ذینفعان مختلف ایجاد کرده است و بر رویههایی که سیاست گذاران باید برای جلوگیری یا به حداقل رساندن تهدید اتخاذ کنند تأکید میکند.
وابستگی به سیستم هوشمند ممکن است در بلندمدت میزان ابتکار و خلاقیت را کاهش دهد
چالش دیگر مربوط به بحث ابتکار و خلاقیت است. برخی بر این باورند که وابستگی به سیستم هوشمند ممکن است در بلندمدت میزان ابتکار و خلاقیت را کاهش دهد. به این معنا که اگر تصمیمگیران برای تصمیمگیری و حل مساله بیش از حد به هوش مصنوعی متکی باشند، ممکن است مهارتشان در انجام کارها کاهش پیدا کرده و توانایی آنها را برای نوآوری و سازگاری با موقعیتهای جدید محدود کند.
گاهی منافعی که از خلاقیت و ابتکار عمل لحظهای یک دیپلمات برجسته حاصل میشود با هیچ قدرت اقتصادی و نظامی قابل تحصیل نیست و در دنیای سیاست از این دست موارد کم نیست.
مشکلات مربوط به کسب دانش و مساله اعتماد به پایگاه دانش هوش مصنوعی
سیستمهای طبقهبندی هوش مصنوعی در برابر اختلالات خصمانه بسیار آسیبپذیر هستند. دشمنان میتوانند برای ایجاد اختلال، دادههای جعلی را منتشر و ارائه دهند
از دیگر چالشهای مهم پیش روی سیستمهای هوشمند، مشکلات مربوط به کسب دانش است؛ به این معنا که در طراحی سیستم خبره هوش مصنوعی میبایست دانش تخصصی (مثلاً در مورد سازمانهای بینالمللی) از متخصص انسانی به سیستم نرمافزار کامپیوتری منتقل شود. موفقیت هر سیستم خبره عمدتاً به کیفیت، کامل بودن و دقت اطلاعات ذخیره شده در پایگاه دانش بستگی دارد، اما برای طراحی سیستم خبره، مشکلاتی در فرایند مهندسی دانش وجود دارد مثلاً اینکه متخصصان حوزه سیاست خارجی چه کسانی هستند؟ آیا بین آنها در مورد راه حل مشکل توافق وجود دارد؟ آیا خبرگان سیاست خارجی دانش ناقص یا غلط در اختیار مهندس قرار میدهند؟ و ...
در حوزهای مانند سیاست خارجی در صورتی که تصمیمگیران به پایگاه دانش سیستم هوش مصنوعی اعتماد نداشته باشند، یا آن را به روز ندانند آن سیستم نمیتواند موفق شود. بنابراین ضروری است که فرایند انتخاب خبرگان بسیار دقیق باشد و سیستم به تناسب رشد سریع دانش سیاست خارجی از طریق معرفی قواعد جدید یا آموزش مداوم به روز گردد.
مشکل جعبه سیاه!
مشکل جعبه سیاه چالش بعدی است. منظور این است که برخی از الگوریتمها و مدلهای هوش مصنوعی به نتیجهگیری یا تصمیمگیری میرسند، بدون اینکه توضیحی را درباره نحوه دستیابی به تصمیمات ارائه کنند. در این مدلها شبکههای عمیق نورونهای مصنوعی دادهها و تصمیمگیریها را در بین دهها هزار نورون پراکنده میکنند که منجر به وضعیت پیچیدهای می شود که ممکن است به اندازه درک مغز انسان دشوار باشد؛ بنابراین زمانی که هوش مصنوعی تصمیم میگیرد، هیچ انسانی نمیتواند نحوه دستیابی به تصمیم هوش مصنوعی را توضیح دهد.
در نتیجه این وضعیت، اگر اشتباه محاسباتی رخ دهد و توسعهدهندگان نتوانند دقیقاً بفهمند که این اشتباه محاسباتی چگونه رخ داده است، میتواند باعث یک تصمیم احمقانه شود که خطر واقعی را به همراه دارد.
برای رفع ترس و نگرانی در مورد هوش مصنوعی محققان پیشنهاد میدهند که هوش مصنوعی فقط از تصمیمات استراتژیک انسانها پشتیبانی کند و تصمیمگیری نهایی همیشه به افرادی واگذار شود که صاحب قدرت هستند.
زمانی که هوش مصنوعی تصمیم میگیرد، هیچ انسانی نمیتواند نحوه دستیابی به تصمیم هوش مصنوعی را توضیح دهد. در نتیجه، اگر اشتباه محاسباتی رخ دهد و توسعهدهندگان نتوانند دقیقا بفهمند که این اشتباه محاسباتی چگونه رخ داده، میتواند باعث یک تصمیم احمقانه و خطرناک شود
نتیجهگیری
پدیده هوش مصنوعی سیاستمدار فعلا در تصمیمگیری سیاست خارجی کاربردی ندارد زیرا هوش مصنوعی در وضعیت فعلی خود فاقد توانایی درک کامل و هدایت پیچیدگیهای سیاست خارجی است و به طور کلی امکان بروز و ظهور چنین پدیدهای بعید به نظر میرسد.
به بیان دیگر هوش مصنوعی نمیتواند در گرفتن تصمیمات مستقل در عرصه سیاست خارجی جایگزین انسان شود، اما در حال حاضر در قالب سیستمهای پشتیبان و مکمل تصمیمگیری و در نقشهای تحلیلگر و پیشبینی کننده در تصمیمگیری سیاست خارجی کاربرد دارد و به دلایل متعدد از جمله کمک به آنالیز دادههای پراکنده و ظرفیت مدلسازی مذاکرات دیپلماتیک میتواند به بهبود عمل تصمیمگیری در سیاستمداران و تصمیم گیران و به طور کلی رهبران سیاست خارجی منجر شود.
هوش مصنوعی از طریق کمک به تصمیمگیران برای تجزیه و تحلیل دادههای فراوان و متنوع سیاست خارجی و در نتیجه ارزیابی بهتر ریسک تصمیمات و احتمال کاهش خطا در تصمیمگیری، افزایش قدرت پیشبینی رویدادهای بینالمللی، افزایش سرعت تصمیمگیری، کاهش تأثیر علایق احساسات و عواطف انسانی بر تصمیمات و در نتیجه افزایش کیفیت تصمیمات سیاست خارجی و بهبود فرآیند دیپلماسی میتواند به پشتیبانی از تصمیمسازی در سیاست خارجی بیانجامد.
با این حال، ضمن اذعان به ظرفیت امیدوارکننده هوش مصنوعی، پرداختن به چالشهای مرتبط با پیادهسازی هوش مصنوعی در تصمیمگیری سیاست خارجی به همان اندازه مهم است. از جمله چالشهای آن، مواردی چون عدم دسترسی به دادههای با کیفیت و سوگیریهای الگوریتمی آسیبپذیری در برابر اطلاعات جعلی دشمن، ملاحظات اخلاقی مانند نگرانیهای مربوط به حریم خصوصی، کاهش خلاقیت تصمیمگیران، مشکل جعبه سیاه و مشکل تأیید عملکرد سیستم است.
پینوشت:
سعید میراحمدی و علی امیدی، «کاربرد هوش مصنوعی در تصمیمگیری سیاست خارجی؛ ظرفیتها و چالشها»، فصلنامه علمی پژوهشهای راهبردی سیاست، دوره۱۳ ، شماره ۵۰ ، پاییز ۱۴۰۳