شناسهٔ خبر: 75797727 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: ایرنا | لینک خبر

عضو وابسته فرهنگستان علوم:

هوش مصنوعی باید اخلاقی، قابل اعتماد و انسان‌محور باشد

تهران- ایرنا- عضو وابسته فرهنگستان علوم با تاکید بر نگاه چندبعدی و رعایت چارچوب‌های حکمرانی گفت: هوش مصنوعی باید اخلاقی، قابل اعتماد و انسان‌محور باشد. 

صاحب‌خبر -

به گزارش روز چهارشنبه گروه علمی ایرنا، حمیدرضا ربیعی در نشستی تخصصی با محوریت هوش مصنوعی ضمن ارائه تحلیلی جامع از وضعیت این فناوری در جهان و ایران، بر ضرورت نگاه چندبعدی و رعایت چارچوب‌های فلسفی، اقتصادی و حکمرانی تأکید کرد.

وی گفت: بدون وجود این چارچوب‌ها هیچ فناوری نمی‌تواند استمرار داشته باشد. بسیاری از اظهار نظرها در مورد هوش مصنوعی، صرفاً بر اساس ترند شدن آن و هایپ رسانه‌ای شکل می‌گیرد، در حالی که این فناوری سال‌ها تحقیق، توسعه و برنامه‌ریزی می‌طلبد و نباید ساده‌انگارانه به آن نگاه کرد.

عضو فرهنگستان علوم با یادآوری فعالیت‌های خود در سال‌های ۱۳۹۳ تا ۱۳۹۶ افزود: در آن سال‌ها فعالیت ما در ایران بیشتر بر مفهوم‌سازی محل کار هوشمند متمرکز بود و حتی در سطح جهانی، هایپ هوش مصنوعی هنوز به اوج نرسیده بود. بنابراین واضح است که توسعه هوش مصنوعی نیازمند زیرساخت‌ها و برنامه‌ریزی دقیق است.

ربیعی با تأکید بر ماهیت میان‌رشته‌ای هوش مصنوعی بیان کرد: هوش مصنوعی، به ویژه هوش مصنوعی عمومی، حوزه‌ای است که علوم مختلفی با آن درگیرند؛ از فلسفه که هدف و جهت‌گیری اخلاقی را مشخص می‌کند، تا اقتصاد که راهبردهای سرمایه‌گذاری و بهره‌وری را تعیین می‌کند، و از علوم اجتماعی، علوم کامپیوتر، علم داده، ریاضیات تا علوم اعصاب.

این استاد دانشگاه افزود: همه ما به سادگی درباره هوش مصنوعی صحبت و اظهار نظر می‌کنیم، ولی واقعیت این است که برای پیشروی در دنیا، ملزومات علمی، زیرساختی و مدیریتی لازم است و باید بررسی کنیم آیا مسئولان و جامعه ما به این ملزومات اشراف دارند یا خیر.

ربیعی تأکید کرد: فناوری هوش مصنوعی عمیقاً با فلسفه، ارزش‌ها و انگیزه‌های اقتصادی گره خورده است. اگر اهداف و فلسفه توسعه روشن نباشد، فعالیت‌ها ممکن است انجام شود اما به نتیجه واقعی نرسد. تاریخ کشور نشان داده است که بسیاری از برنامه‌ها بدون تعیین فلسفه و هدف اقتصادی، ناکارآمد بوده‌اند.

وی افزود: در دنیا، سرمایه‌گذاری در هوش مصنوعی تنها در صورتی انجام می‌شود که سود اقتصادی یا مزیت استراتژیک وجود داشته باشد. در طی پنجاه سال گذشته، دو بار سرمایه‌گذاری گسترده انجام شده ولی به دلیل عدم بهره‌وری کافی، پروژه‌ها متوقف شده‌اند؛ این همان چیزی است که اصطلاحاً "زمستان هوش مصنوعی" نامیده می‌شود.

ربیعی همچنین به اهمیت هدف‌گذاری استراتژیک اشاره کرد و گفت: اگر هدف ما از توسعه هوش مصنوعی، تنها رقابت با دنیا باشد و ظرفیت‌ها و زیرساخت‌ها را در نظر نگیریم، نتیجه‌ای حاصل نخواهد شد. اما اگر هدف ما حل مسائل داخلی و ارتقای بهره‌وری باشد، حتی با سرمایه‌گذاری کمتر نیز می‌توانیم موفق باشیم.

این عضو فرهنگستان علوم در ادامه افزود: رگولیشن و چارچوب قانونی، پایه و اساس توسعه هوش مصنوعی است. حتی در کشورهای پیشرفته، رگولیشن‌ها برای رعایت اخلاق، امنیت و حفظ حریم خصوصی تدوین شده‌اند. برخی تلاش دارند این مقررات را سبک‌تر کنند تا توسعه فناوری سریع‌تر شود، اما ما نباید از این نکته غفلت کنیم. در حوزه‌های حساس و امنیتی، اعمال رگولیشن دقیق الزامی است.

وی اضافه کرد: در آمریکا، دستورالعمل‌های اجرایی متعدد برای امنیت سایبری و هوش مصنوعی وجود دارد و اروپا نیز قوانین سختگیرانه‌ای برای محصولات و پلتفرم‌ها وضع کرده است. این تجربه‌ها می‌تواند برای ما درس‌آموز باشد.

ربیعی تأکید کرد: هوش مصنوعی و سازمان‌ها، رابطه‌ای دوطرفه دارند. برخی فناوری‌ها برای کمک به اهداف حاکمیت و سازمان‌ها طراحی شده‌اند. در ایران، بسیاری از سازمان‌ها هنوز فاقد برنامه راهبردی منسجم هستند و صرف داشتن یک سند کافی نیست. در حالی که سازمان‌های مدرن جهانی، دیجیتال و پلتفرمی شده‌اند، ما هنوز در مرحله ابتدایی هستیم و تلاش برای پیاده‌سازی هوش مصنوعی بدون سازگاری با این منطق، موفقیت‌آمیز نخواهد بود.

وی با تشریح دسته‌بندی‌های هوش مصنوعی گفت: هوش مصنوعی تحلیلی، تحلیل داده‌ها و مدل‌سازی است که ما تا حدی در آن پیشرفت داشته‌ایم. هوش مصنوعی مولد (Generative AI) خلاقیت، نوآوری و توانایی تبدیل دانش از یک حوزه به حوزه دیگر است که هنوز به بلوغ کامل نرسیده است. هوش مصنوعی شناختی، ترکیب یادگیری و استدلال انسانی است که در حال حاضر توسعه آن در مراحل اولیه است.

عضو فرهنگستان علوم بیان کرد: در حوزه‌های خاص، هوش مصنوعی می‌تواند عملکردی بهتر از انسان داشته باشد، مانند تشخیص سرطان سینه در برخی سامانه‌های توسعه‌یافته، اما هنوز قادر نیست جایگزین کامل انسان شود. علت آن محدودیت در استدلال و درک مفهومی است.

ربیعی به محدودیت‌های فناوری اشاره کرد و گفت: فقدان استدلال واقعی و عقل سلیم در مدل‌های بزرگ، سوگیری داده‌ها و مشکلات تبعیض‌آمیز، ناکارآمدی در مواجهه با داده‌های کم، مصرف انرژی بسیار بالای مراکز پردازشی، چالش در حریم خصوصی و امنیت داده‌ها و مشکلات توصیف‌پذیری و شفافیت از جمله چالش‌های مهم هستند.

وی تأکید کرد: برای حل این چالش‌ها، لازم است روش‌های نمادین مبتنی بر منطق با یادگیری مبتنی بر داده ترکیب شوند و از ایجنت‌های هوش مصنوعی برای تعامل با محیط و پیوند زدن شاخه‌های مختلف هوش استفاده شود.

ربیعی با اشاره بر اهمیت اخلاق و شفافیت گفت: هوش مصنوعی قابل اطمینان باید توصیف‌پذیر، مسئولیت‌پذیر و قابل اعتماد باشد. انسان باید در حلقه تصمیم‌گیری حضور داشته باشد. این امر به ویژه در حوزه‌های حساس مانند پزشکی و امنیت حیاتی است. طراحی سیستم‌ها بدون رعایت این اصول، می‌تواند منجر به آسیب‌های جدی شود.

وی با تأکید بر ضرورت هم‌افزایی علوم گفت: چهار رکن اصلی آینده هوش مصنوعی عبارت‌اند از فلسفه، علم، مهندسی و حکمرانی. توسعه هوش مصنوعی عمومی، تنها بر پایه هوش مصنوعی قابل اطمینان، اخلاقی و حضور انسان در حلقه تصمیم‌گیری ممکن است. ما باید ترکیب روش‌های نمادین و داده‌محور را در سامانه‌های شناختی و هوش مصنوعی عمومی در نظر بگیریم و در مسیر توسعه از قابلیت‌های محاسبات کوانتومی نیز بهره‌مند شویم. با رعایت این اصول، می‌توانیم سامانه‌های هوش مصنوعی موثر، اخلاقی و قابل اعتماد ایجاد کنیم.

این استاد دانشگاه افزود: ما هنوز در ابتدای راه توسعه هوش مصنوعی قرار داریم، اما با مدیریت صحیح، هدف‌گذاری درست و استفاده از منابع بومی و بین‌المللی، می‌توانیم سرعت پیشرفت خود را افزایش دهیم و نقش کلیدی در توسعه هوش مصنوعی عمومی ایفا کنیم.