شناسهٔ خبر: 75848129 - سرویس اجتماعی
نسخه قابل چاپ منبع: ایرنا | لینک خبر

گزیده‌ای از یک پژوهش؛

کاربرد هوش مصنوعی در سیاست خارجی؛ مساله «جعبه سیاه» و دیگر پیامدهای احتمالی

تهران- ایرنا- تصمیم‌گیری در حوزه سیاست خارجی، همواره با محدودیت‌ و چالش‌های برآمده از فرایند فردی و اجتماعی اتخاذ تصمیم مواجه است؛ محدودیت‌هایی که هوش مصنوعی می‌تواند بر آن فائق آید و به سیاستمداران در عرصه سیاست خارجی یاری برساند.

صاحب‌خبر -

در ادبیات تحلیل سیاست خارجی، نقطه عزیمت تحلیل، مستقیما از ‌تصمیم‌گیری و محیط ‌تصمیم‌گیری آغاز ‌می‌شود. تصمیمات سیاست خارجی هم صرفا توسط مقام‌های یک کشور اتخاذ نمی‌شوند، بلکه این تصمیمات ممکن است ماحصل چانه‌زنی نهادهای حکومتی و بوروکراتیک یا حاصل یک ائتلاف بین‌المللی باشد.

سیاستمداران نیز همانند انسان‌های عادی از رویه‌های تکراری و میانبرهای ذهنی برای غلبه بر پیچیدگی‌های ذاتی بسیاری از تصمیمات استفاده می‌کنند؛ بنابراین سوگیری‌های شناختی و عوامل روان‌شناختی، باورها و برنامه‌های شخصی آنها می‌تواند ‌تصمیم‌گیری را مختل کند و بر انتخاب‌های آنها تأثیر بگذارد و این می‌تواند چالش بزرگی برای اتخاذ تصمیمات درست و باکیفیت باشد. علاوه بر این، ماهیت غیرقابل ‌پیش‌بینی رویدادهای جهانی و به‌هم‌پیوستگی موضوعات گوناگون و حضور ذینفعان مختلف با منافع متضاد، ‌تصمیم‌گیری در سیاست خارجی را چالش‌برانگیز می سازد.

تصمیم‌گیری در سیاست خارجی فرآیند پیچیده‌ای است که نیازمند تجزیه و تحلیل حجم وسیعی از داده‌ها، ارزیابی سناریوهای مختلف و در نظر گرفتن دیدگاه‌های گوناگون است. ظهور هوش مصنوعی فرصت‌های جدیدی را برای تقویت و ساده‌سازی این فرآیند ‌تصمیم‌گیری ارائه می‌دهد

فقدان اطلاعات کامل و نیاز به اولویت‌بندی اهداف رقیب نیز مشکلاتی ایجاد می کند. همچنین تصمیم‌گیرندگان اغلب با محدودیت‌های زمانی و فشار برای اقدام سریع مواجه می‌شوند و فضای کمی برای تجزیه و تحلیل کامل با بررسی گزینه‌های جایگزین باقی می‌ماند. در نتیجه انسان‌ها به طور کلی و رهبران و تصمیم‌گیران سیاست خارجی به طور خاص، تصمیم‌گیران بدون نقص و کاملی نیستند.

انسان‌ها چه به صورت انفرادی و چه به صورت جمعی برای اتخاذ تصمیمات درست و با کیفیت با چالش‌ها و محدودیت‌هایی مواجه هستند. این محدودیت‌ها و چالش‌ها نیاز به تحقیقات دقیق، تجزیه و تحلیل مبتنی بر داده‌ها و رویکردی چندرشته‌ای و استفاده از ظرفیت‌های مختلف مانند هوش مصنوعی برای ارتقای کیفیت ‌تصمیم‌گیری سیاست خارجی را برجسته می‌کند.

در سال‌های اخیر محققان تلاش کرده‌اند کیفیت ‌تصمیم‌گیری‌ها را با توسعه فناوری‌های کامپیوتری در جهت افزایش و گسترش توانایی‌های انسانی بهبود بخشند. پیشرفت در هوش مصنوعی این هدف را در بسیاری از برنامه‌ها به واقعیت تبدیل کرده است.

افزون بر این، ‌تصمیم‌گیری در سیاست خارجی فرآیند پیچیده‌ای است که نیازمند تجزیه و تحلیل حجم وسیعی از داده‌ها، ارزیابی سناریوهای مختلف و در نظر گرفتن دیدگاه‌های گوناگون است. ظهور هوش مصنوعی فرصت‌های جدیدی را برای تقویت و ساده‌سازی این فرآیند ‌تصمیم‌گیری ارائه می‌دهد.

با استفاده از الگوریتم‌های یادگیری ماشین، پردازش زبان طبیعی و تجزیه و تحلیل داده‌ها، هوش مصنوعی این پتانسیل را دارد که سیاست خارجی را متحول کند. بنابراین استفاده از تمام ابزارها مانند هوش مصنوعی برای بهینه کردن تصمیمات سیاست خارجی و کمک به تصمیم‌گیران برای گرفتن تصمیمات عاقلانه‌تر و هوشمندانه‌تر که بتواند بیشتر منافع ملی کشورها را حفظ کند و نیل به اهداف ملی را محتمل‌تر سازد و از بروز پیامدها و نتایج ناخواسته یا ناگوار چه در سطح داخلی چه در سطح بین‌المللی جلوگیری کند بسیار ضروری است.

«سعید میراحمدی» و «علی امیدی» در پاییز ۱۴۰۳ در پژوهشی با عنوان «کاربرد هوش مصنوعی در تصمیم‌گیری سیاست خارجی؛ ظرفیت‌ها و چالش‌ها» که در فصلنامه علمی پژوهش‌های راهبردی سیاست منتشر شد، به بررسی این موضوع پرداخته‌اند که در ادامه بخش‌هایی از آن را می‌خوانیم:

۲ کارکردی که می‌توان از هوش مصنوعی در سیاستگذاری انتظار داشت

هوش مصنوعی در دیجیتالی کردن دیپلماسی که خطاهای انسانی را تا حد مشخصی کاهش می‌دهد، به عنوان یک ابزار مقرون به صرفه در نظر گرفته ‌می‌شود. هوش مصنوعی می‌تواند در مذاکرات دیپلماتیک با تجزیه و تحلیل مذاکرات گذشته و ‌پیش‌بینی نتیجه بحث‌های جاری بسیار مفید واقع شود

در خصوص کاربردهای هوش مصنوعی در ‌تصمیم‌گیری سیاست خارجی دو نوع کاربرد را می‌توان در نظر گرفت؛ نخست اینکه ‌تصمیم‌گیری در سیاست خارجی را در قالب «هوش مصنوعی سیاستمدار» به طور کامل به سیستم‌های هوش مصنوعی واگذار کرد که البته این مساله فعلاً در مرحله تئوریک است.

کاربرد دوم این است که از هوش مصنوعی صرفاً برای کمک به ‌تصمیم‌گیری در سیاست خارجی استفاده کرد. در این کاربرد، هوش مصنوعی به عنوان پشتیبان و مکمل یا مشاور ‌تصمیم‌گیری به تصمیم گیران کمک کند. در این مقاله به کاربردهای بهره‌گیری از هوش مصنوعی در پشتیبانی از تصمیم‌گیری در سیاست خارجی پرداخته می‌شود.

توسعه قابلیت‌های ‌پیش‌بینی مبتنی بر هوش مصنوعی

در آینده نه چندان دور استفاده از هوش مصنوعی به بخش جدایی‌ناپذیر تصمیمات سیاست خارجی تبدیل ‌می‌شود. بسیاری بر این باورند که هوش مصنوعی با قابلیت پیش‌بینی رویدادهای بین‌المللی در تغییر ژئوپلیتیک تأثیر خواهد داشت. ماشین‌های هوش مصنوعی بر اساس الگوریتم‌های بهینه‌سازی و راستی‌آزمایی برنامه‌ریزی شده‌اند که به درک بهتر اطلاعات پراکنده سیاسی کمک می‌کنند. این سیستم‌ها می‌توانند رویدادهای آینده را ‌پیش‌بینی کنند و از این طریق ممکن است فرصت‌هایی را برای تصمیم‌گیران عرصه سیاست خارجی برای درک رویدادهای احتمالی آینده، پیش‌بینی مواضع و تاکتیک‌های دیگران فراهم کنند. یکی از این نمونه‌ها در عرصه سیاست خارجی، امکان مدل‌سازی مذاکرات پیچیده است.

بسیاری از دولت‌ها خواه ناخواه، در حال توسعه قابلیت‌های ‌پیش‌بینی مبتنی بر هوش مصنوعی هستند. هوش مصنوعی حتی در دیجیتالی کردن دیپلماسی که خطاهای انسانی را تا حد مشخصی کاهش می‌دهد، به عنوان یک ابزار مقرون به صرفه در نظر گرفته ‌می‌شود. هوش مصنوعی می‌تواند در مذاکرات دیپلماتیک با تجزیه و تحلیل مذاکرات گذشته و ‌پیش‌بینی نتیجه بحث‌های جاری بسیار مفید واقع شود. این موضوع با این واقعیت که توانایی یک سیستم هوش مصنوعی برای ذخیره و مقایسه تعداد زیادی از داده‌های تاریخی، تقریباً به طور قطع از یک انسان یا گروهی از انسان‌ها بیشتر است، پشتیبانی و تقویت ‌می‌شود.

فناوری که در مسائل سیاسی بی‌طرف است و تصمیمات عجولانه و احساسی نمی‌گیرد

یکی دیگر از مزایای هوش مصنوعی بی‌طرفی در مسائل سیاسی است. برخلاف اپراتورهای انسانی، سیستم‌های هوش مصنوعی تحت تأثیر علایق یا احساساتی مانند ترس قرار نمی‌گیرند و تکانشگری تصمیمات عجولانه گرفتن و هیجانی یا اجبار روانی برای تلافی در برابر دشمن را احساس نخواهند کرد. بنابراین بهره‌گیری از هوش مصنوعی به کاهش تأثیر علایق، احساسات و عواطف انسانی بر تصمیمات سیاست خارجی منجر خواهند شد.

پیشرفت‌های هوش مصنوعی باعث کاهش هزینه‌های ‌پیش‌بینی آماری و بهبود آن می‌شود. هوش مصنوعی با توانایی در پردازش و تجزیه و تحلیل حجم بالایی از داده‌ها در ارزیابی ریسک تصمیمات به تصمیم‌گیران کمک کرده و منجر به کاهش خطا در ‌تصمیم‌گیری ‌می‌شود. همچنین باعث صرفه‌جویی و جلوگیری از هدر رفت منابع ملی کشورها خواهد شد.

برخلاف اپراتورهای انسانی، سیستم‌های هوش مصنوعی تحت تأثیر علایق یا احساساتی مانند ترس قرار نمی‌گیرند و تکانشگری تصمیمات عجولانه گرفتن و هیجانی یا اجبار روانی برای تلافی در برابر دشمن را احساس نخواهند کرد

با توجه به اینکه ‌تصمیم‌گیری مستلزم بررسی و در نظر گرفتن متغیرها و پارامترهای متعدد است و تصمیم‌گیران سیاست خارجی هنگام ‌تصمیم‌گیری باید جنبه‌های مختلف یک تصمیم را مورد واکاوی قرار دهند، قدرت پردازش سریع متغیرهای متعدد توسط هوش مصنوعی باعث افزایش سرعت ‌تصمیم‌گیری و صرفه‌جویی در زمان خواهد شد.

داده‌ها ممکن است هوش مصنوعی را دچار خطا کنند!

یکی از موانع اصلی با چالش‌های پیاده‌سازی هوش مصنوعی در ‌تصمیم‌گیری بحث در دسترس بودن داده‌ها است. داده‌ها اغلب ناهماهنگ یا ناسازگار و با کیفیت پایین هستند که این مساله چالش‌هایی را برای طراحی سیستم‌های پشتیبان ‌تصمیم‌گیری مبتنی بر هوش مصنوعی ایجاد می‌کنند.

کیفیت سیستم‌های هوش مصنوعی به کیفیت داده‌هایی بستگی دارد که این سیستم‌ها توسط آنها آموزش دیده‌اند. اگر این داده‌ها مغرضانه یا ناقص باشند می‌توانند نتایج تبعیض‌آمیز را تداوم بخشند. از آنجایی که داده‌های آموزشی از خروجی انسان استخراج می‌شود، سیستم‌های هوش مصنوعی می‌توانند در نهایت تعصبات انسانی مانند نژادپرستی و تبعیض جنسی را تقلید و تکرار کنند. برای غلبه بر این مساله، باید از همان ابتدا یک استراتژی روشن برای منبع داده‌هایی که هوش مصنوعی به آن نیاز دارد، وجود داشته باشد در حوزه ‌تصمیم‌گیری در سیاست خارجی مساله دسترسی به داده‌های با کیفیت و دقیق به ویژه داده‌های دقیق در مورد کشورهای دیگر چالش برانگیزتر است. این امر ناشی از این موضوع است که دولت‌ها در خصوص بسیاری از مسائل به دلایل امنیتی حاضر به شفاف‌سازی نیستند و از قضا داده‌هایی را که برای طراحی سیستم‌های هوش مصنوعی حیاتی هستند جزء اطلاعات فوق محرمانه طبقه‌بندی می‌کنند که هر گونه افشای آنها آسیب به امنیت ملی تلقی می شود.

همچنین بسیاری از دانشمندان داده نشان داده‌اند که سیستم‌های طبقه‌بندی هوش مصنوعی در برابر اختلالات خصمانه بسیار آسیب‌پذیر هستند. دشمنان می‌توانند داده‌های جعلی را منتشر و ارائه دهند. به عنوان مثال تصاویر حمله هوایی نادرست در رادار باعث طبقه‌بندی اشتباه با هشدارهای اشتباه ‌می‌شود که می‌تواند به عنوان تهدید واقعی در یک سیستم هوش مصنوعی تلقی شود.

از آنجایی که داده‌های آموزشی از خروجی انسان استخراج می‌شود، سیستم‌های هوش مصنوعی می‌توانند در نهایت تعصبات انسانی مانند نژادپرستی و تبعیض جنسی را تقلید و تکرار کنند

نگرانی‌ها و مسائل اخلاقی استفاده از هوش مصنوعی

استفاده نامناسب و غیراخلاقی از هوش مصنوعی چالش مهم دیگری است که اخیراً به یک نگرانی بزرگ تبدیل شده است. چندین شرکت بزرگ فناوری با اجازه دادن به استفاده نادرست و غیر اخلاقی از داده‌ها و هوش مصنوعی در پلتفرم‌های خود در گیر رسوایی‌هایی شده‌اند. معروف‌ترین آنها رسوایی کمبریج آنالایتیکا است. فیسبوک به شرکت مشاوره کمبریج آنالایتیکا که از الگوریتم‌های هوش مصنوعی برای هدف‌یابی و تبلیغات سیاسی در انتخابات ۲۰۱۶ آمریکا استفاده می‌کرد به اطلاعات حساس ۸۵ میلیون کاربر اجازه دسترسی داد.

وقایعی از این دست، نشان داد که چگونه داده‌های جمع‌آوری شده از طریق هوش مصنوعی در برابر نگرانی‌های حفظ حریم خصوصی، آسیب‌پذیر هستند. این امر نگرانی‌های قابل توجهی را در رابطه با امنیت ذینفعان مختلف ایجاد کرده است و بر رویه‌هایی که سیاست گذاران باید برای جلوگیری یا به حداقل رساندن تهدید اتخاذ کنند تأکید می‌کند.

وابستگی به سیستم هوشمند ممکن است در بلندمدت میزان ابتکار و خلاقیت را کاهش دهد

چالش دیگر مربوط به بحث ابتکار و خلاقیت است. برخی بر این باورند که وابستگی به سیستم هوشمند ممکن است در بلندمدت میزان ابتکار و خلاقیت را کاهش دهد. به این معنا که اگر تصمیم‌گیران برای ‌تصمیم‌گیری و حل مساله بیش از حد به هوش مصنوعی متکی باشند، ممکن است مهارتشان در انجام کارها کاهش پیدا کرده و توانایی آنها را برای نوآوری و سازگاری با موقعیتهای جدید محدود کند.

گاهی منافعی که از خلاقیت و ابتکار عمل لحظه‌ای یک دیپلمات برجسته حاصل می‌شود با هیچ قدرت اقتصادی و نظامی قابل تحصیل نیست و در دنیای سیاست از این دست موارد کم نیست.

مشکلات مربوط به کسب دانش و مساله اعتماد به پایگاه دانش هوش مصنوعی

سیستم‌های طبقه‌بندی هوش مصنوعی در برابر اختلالات خصمانه بسیار آسیب‌پذیر هستند. دشمنان می‌توانند برای ایجاد اختلال، داده‌های جعلی را منتشر و ارائه دهند

از دیگر چالش‌های مهم پیش روی سیستم‌های هوشمند، مشکلات مربوط به کسب دانش است؛ به این معنا که در طراحی سیستم خبره هوش مصنوعی می‌بایست دانش تخصصی (مثلاً در مورد سازمان‌های بین‌المللی) از متخصص انسانی به سیستم نرم‌افزار کامپیوتری منتقل شود. موفقیت هر سیستم خبره عمدتاً به کیفیت، کامل بودن و دقت اطلاعات ذخیره شده در پایگاه دانش بستگی دارد، اما برای طراحی سیستم خبره، مشکلاتی در فرایند مهندسی دانش وجود دارد مثلاً اینکه متخصصان حوزه سیاست خارجی چه کسانی هستند؟ آیا بین آنها در مورد راه حل مشکل توافق وجود دارد؟ آیا خبرگان سیاست خارجی دانش ناقص یا غلط در اختیار مهندس قرار می‌دهند؟ و ...

در حوزه‌ای مانند سیاست خارجی در صورتی که تصمیم‌گیران به پایگاه دانش سیستم هوش مصنوعی اعتماد نداشته باشند، یا آن را به روز ندانند آن سیستم نمی‌تواند موفق شود. بنابراین ضروری است که فرایند انتخاب خبرگان بسیار دقیق باشد و سیستم به تناسب رشد سریع دانش سیاست خارجی از طریق معرفی قواعد جدید یا آموزش مداوم به روز گردد.

مشکل جعبه سیاه!

مشکل جعبه سیاه چالش بعدی است. منظور این است که برخی از الگوریتم‌ها و مدل‌های هوش مصنوعی به نتیجه‌گیری یا ‌تصمیم‌گیری می‌رسند، بدون اینکه توضیحی را درباره نحوه دستیابی به تصمیمات ارائه کنند. در این مدل‌ها شبکه‌های عمیق نورون‌های مصنوعی داده‌ها و ‌تصمیم‌گیری‌ها را در بین ده‌ها هزار نورون پراکنده می‌کنند که منجر به وضعیت پیچیده‌ای می شود که ممکن است به اندازه درک مغز انسان دشوار باشد؛ بنابراین زمانی که هوش مصنوعی تصمیم می‌گیرد، هیچ انسانی نمی‌تواند نحوه دستیابی به تصمیم هوش مصنوعی را توضیح دهد.

در نتیجه این وضعیت، اگر اشتباه محاسباتی رخ دهد و توسعه‌دهندگان نتوانند دقیقاً بفهمند که این اشتباه محاسباتی چگونه رخ داده است، می‌تواند باعث یک تصمیم احمقانه شود که خطر واقعی را به همراه دارد.

برای رفع ترس و نگرانی در مورد هوش مصنوعی محققان پیشنهاد می‌دهند که هوش مصنوعی فقط از تصمیمات استراتژیک انسان‌ها پشتیبانی کند و ‌تصمیم‌گیری نهایی همیشه به افرادی واگذار شود که صاحب قدرت هستند.

زمانی که هوش مصنوعی تصمیم می‌گیرد، هیچ انسانی نمی‌تواند نحوه دستیابی به تصمیم هوش مصنوعی را توضیح دهد. در نتیجه، اگر اشتباه محاسباتی رخ دهد و توسعه‌دهندگان نتوانند دقیقا بفهمند که این اشتباه محاسباتی چگونه رخ داده، می‌تواند باعث یک تصمیم احمقانه و خطرناک شود

نتیجه‌گیری

پدیده هوش مصنوعی سیاستمدار فعلا در ‌تصمیم‌گیری سیاست خارجی کاربردی ندارد زیرا هوش مصنوعی در وضعیت فعلی خود فاقد توانایی درک کامل و هدایت پیچیدگی‌های سیاست خارجی است و به طور کلی امکان بروز و ظهور چنین پدیده‌ای بعید به نظر می‌رسد.

به بیان دیگر هوش مصنوعی نمی‌تواند در گرفتن تصمیمات مستقل در عرصه سیاست خارجی جایگزین انسان شود، اما در حال حاضر در قالب سیستم‌های پشتیبان و مکمل ‌تصمیم‌گیری و در نقش‌های تحلیلگر و ‌پیش‌بینی کننده در ‌تصمیم‌گیری سیاست خارجی کاربرد دارد و به دلایل متعدد از جمله کمک به آنالیز داده‌های پراکنده و ظرفیت مدل‌سازی مذاکرات دیپلماتیک می‌تواند به بهبود عمل ‌تصمیم‌گیری در سیاستمداران و تصمیم گیران و به طور کلی رهبران سیاست خارجی منجر شود.

هوش مصنوعی از طریق کمک به تصمیم‌گیران برای تجزیه و تحلیل داده‌های فراوان و متنوع سیاست خارجی و در نتیجه ارزیابی بهتر ریسک تصمیمات و احتمال کاهش خطا در ‌تصمیم‌گیری، افزایش قدرت ‌پیش‌بینی رویدادهای بین‌المللی، افزایش سرعت ‌تصمیم‌گیری، کاهش تأثیر علایق احساسات و عواطف انسانی بر تصمیمات و در نتیجه افزایش کیفیت تصمیمات سیاست خارجی و بهبود فرآیند دیپلماسی می‌تواند به پشتیبانی از تصمیم‌سازی در سیاست خارجی بیانجامد.

با این حال، ضمن اذعان به ظرفیت امیدوارکننده هوش مصنوعی، پرداختن به چالش‌های مرتبط با پیاده‌سازی هوش مصنوعی در ‌تصمیم‌گیری سیاست خارجی به همان اندازه مهم است. از جمله چالش‌های آن، مواردی چون عدم دسترسی به داده‌های با کیفیت و سوگیری‌های الگوریتمی آسیب‌پذیری در برابر اطلاعات جعلی دشمن، ملاحظات اخلاقی مانند نگرانی‌های مربوط به حریم خصوصی، کاهش خلاقیت تصمیم‌گیران، مشکل جعبه سیاه و مشکل تأیید عملکرد سیستم است.

پی‌نوشت:

سعید میراحمدی و علی امیدی، «کاربرد هوش مصنوعی در تصمیم‌گیری سیاست خارجی؛ ظرفیت‌ها و چالش‌ها»، فصلنامه علمی پژوهش‌های راهبردی سیاست، دوره۱۳ ، شماره ۵۰ ، پاییز ۱۴۰۳