به گزارش روز چهارشنبه گروه علمی ایرنا، حمیدرضا ربیعی در نشستی تخصصی با محوریت هوش مصنوعی ضمن ارائه تحلیلی جامع از وضعیت این فناوری در جهان و ایران، بر ضرورت نگاه چندبعدی و رعایت چارچوبهای فلسفی، اقتصادی و حکمرانی تأکید کرد.
وی گفت: بدون وجود این چارچوبها هیچ فناوری نمیتواند استمرار داشته باشد. بسیاری از اظهار نظرها در مورد هوش مصنوعی، صرفاً بر اساس ترند شدن آن و هایپ رسانهای شکل میگیرد، در حالی که این فناوری سالها تحقیق، توسعه و برنامهریزی میطلبد و نباید سادهانگارانه به آن نگاه کرد.
عضو فرهنگستان علوم با یادآوری فعالیتهای خود در سالهای ۱۳۹۳ تا ۱۳۹۶ افزود: در آن سالها فعالیت ما در ایران بیشتر بر مفهومسازی محل کار هوشمند متمرکز بود و حتی در سطح جهانی، هایپ هوش مصنوعی هنوز به اوج نرسیده بود. بنابراین واضح است که توسعه هوش مصنوعی نیازمند زیرساختها و برنامهریزی دقیق است.
ربیعی با تأکید بر ماهیت میانرشتهای هوش مصنوعی بیان کرد: هوش مصنوعی، به ویژه هوش مصنوعی عمومی، حوزهای است که علوم مختلفی با آن درگیرند؛ از فلسفه که هدف و جهتگیری اخلاقی را مشخص میکند، تا اقتصاد که راهبردهای سرمایهگذاری و بهرهوری را تعیین میکند، و از علوم اجتماعی، علوم کامپیوتر، علم داده، ریاضیات تا علوم اعصاب.
این استاد دانشگاه افزود: همه ما به سادگی درباره هوش مصنوعی صحبت و اظهار نظر میکنیم، ولی واقعیت این است که برای پیشروی در دنیا، ملزومات علمی، زیرساختی و مدیریتی لازم است و باید بررسی کنیم آیا مسئولان و جامعه ما به این ملزومات اشراف دارند یا خیر.
ربیعی تأکید کرد: فناوری هوش مصنوعی عمیقاً با فلسفه، ارزشها و انگیزههای اقتصادی گره خورده است. اگر اهداف و فلسفه توسعه روشن نباشد، فعالیتها ممکن است انجام شود اما به نتیجه واقعی نرسد. تاریخ کشور نشان داده است که بسیاری از برنامهها بدون تعیین فلسفه و هدف اقتصادی، ناکارآمد بودهاند.
وی افزود: در دنیا، سرمایهگذاری در هوش مصنوعی تنها در صورتی انجام میشود که سود اقتصادی یا مزیت استراتژیک وجود داشته باشد. در طی پنجاه سال گذشته، دو بار سرمایهگذاری گسترده انجام شده ولی به دلیل عدم بهرهوری کافی، پروژهها متوقف شدهاند؛ این همان چیزی است که اصطلاحاً "زمستان هوش مصنوعی" نامیده میشود.
ربیعی همچنین به اهمیت هدفگذاری استراتژیک اشاره کرد و گفت: اگر هدف ما از توسعه هوش مصنوعی، تنها رقابت با دنیا باشد و ظرفیتها و زیرساختها را در نظر نگیریم، نتیجهای حاصل نخواهد شد. اما اگر هدف ما حل مسائل داخلی و ارتقای بهرهوری باشد، حتی با سرمایهگذاری کمتر نیز میتوانیم موفق باشیم.
این عضو فرهنگستان علوم در ادامه افزود: رگولیشن و چارچوب قانونی، پایه و اساس توسعه هوش مصنوعی است. حتی در کشورهای پیشرفته، رگولیشنها برای رعایت اخلاق، امنیت و حفظ حریم خصوصی تدوین شدهاند. برخی تلاش دارند این مقررات را سبکتر کنند تا توسعه فناوری سریعتر شود، اما ما نباید از این نکته غفلت کنیم. در حوزههای حساس و امنیتی، اعمال رگولیشن دقیق الزامی است.
وی اضافه کرد: در آمریکا، دستورالعملهای اجرایی متعدد برای امنیت سایبری و هوش مصنوعی وجود دارد و اروپا نیز قوانین سختگیرانهای برای محصولات و پلتفرمها وضع کرده است. این تجربهها میتواند برای ما درسآموز باشد.
ربیعی تأکید کرد: هوش مصنوعی و سازمانها، رابطهای دوطرفه دارند. برخی فناوریها برای کمک به اهداف حاکمیت و سازمانها طراحی شدهاند. در ایران، بسیاری از سازمانها هنوز فاقد برنامه راهبردی منسجم هستند و صرف داشتن یک سند کافی نیست. در حالی که سازمانهای مدرن جهانی، دیجیتال و پلتفرمی شدهاند، ما هنوز در مرحله ابتدایی هستیم و تلاش برای پیادهسازی هوش مصنوعی بدون سازگاری با این منطق، موفقیتآمیز نخواهد بود.
وی با تشریح دستهبندیهای هوش مصنوعی گفت: هوش مصنوعی تحلیلی، تحلیل دادهها و مدلسازی است که ما تا حدی در آن پیشرفت داشتهایم. هوش مصنوعی مولد (Generative AI) خلاقیت، نوآوری و توانایی تبدیل دانش از یک حوزه به حوزه دیگر است که هنوز به بلوغ کامل نرسیده است. هوش مصنوعی شناختی، ترکیب یادگیری و استدلال انسانی است که در حال حاضر توسعه آن در مراحل اولیه است.
عضو فرهنگستان علوم بیان کرد: در حوزههای خاص، هوش مصنوعی میتواند عملکردی بهتر از انسان داشته باشد، مانند تشخیص سرطان سینه در برخی سامانههای توسعهیافته، اما هنوز قادر نیست جایگزین کامل انسان شود. علت آن محدودیت در استدلال و درک مفهومی است.
ربیعی به محدودیتهای فناوری اشاره کرد و گفت: فقدان استدلال واقعی و عقل سلیم در مدلهای بزرگ، سوگیری دادهها و مشکلات تبعیضآمیز، ناکارآمدی در مواجهه با دادههای کم، مصرف انرژی بسیار بالای مراکز پردازشی، چالش در حریم خصوصی و امنیت دادهها و مشکلات توصیفپذیری و شفافیت از جمله چالشهای مهم هستند.
وی تأکید کرد: برای حل این چالشها، لازم است روشهای نمادین مبتنی بر منطق با یادگیری مبتنی بر داده ترکیب شوند و از ایجنتهای هوش مصنوعی برای تعامل با محیط و پیوند زدن شاخههای مختلف هوش استفاده شود.
ربیعی با اشاره بر اهمیت اخلاق و شفافیت گفت: هوش مصنوعی قابل اطمینان باید توصیفپذیر، مسئولیتپذیر و قابل اعتماد باشد. انسان باید در حلقه تصمیمگیری حضور داشته باشد. این امر به ویژه در حوزههای حساس مانند پزشکی و امنیت حیاتی است. طراحی سیستمها بدون رعایت این اصول، میتواند منجر به آسیبهای جدی شود.
وی با تأکید بر ضرورت همافزایی علوم گفت: چهار رکن اصلی آینده هوش مصنوعی عبارتاند از فلسفه، علم، مهندسی و حکمرانی. توسعه هوش مصنوعی عمومی، تنها بر پایه هوش مصنوعی قابل اطمینان، اخلاقی و حضور انسان در حلقه تصمیمگیری ممکن است. ما باید ترکیب روشهای نمادین و دادهمحور را در سامانههای شناختی و هوش مصنوعی عمومی در نظر بگیریم و در مسیر توسعه از قابلیتهای محاسبات کوانتومی نیز بهرهمند شویم. با رعایت این اصول، میتوانیم سامانههای هوش مصنوعی موثر، اخلاقی و قابل اعتماد ایجاد کنیم.
این استاد دانشگاه افزود: ما هنوز در ابتدای راه توسعه هوش مصنوعی قرار داریم، اما با مدیریت صحیح، هدفگذاری درست و استفاده از منابع بومی و بینالمللی، میتوانیم سرعت پیشرفت خود را افزایش دهیم و نقش کلیدی در توسعه هوش مصنوعی عمومی ایفا کنیم.