شناسهٔ خبر: 75425417 - سرویس اجتماعی
نسخه قابل چاپ منبع: آنا | لینک خبر

یک مقام مسئول وزارت علوم به آنا خبر داد

راهنمای استفاده از ابزار‌های هوش مصنوعی در پژوهش تدوین شد

مدیر کل پژوهشی وزارت علوم از تدوین راهنمای استفاده از ابزار‌های هوش مصنوعی در تحقیقات پژوهشی و رشته‌های مختلف دانشگاهی خبر داد.

صاحب‌خبر -

به گزارش خبرگزاری آنا، بنیاد ملی علم ایران با هدف صیانت از اخلاق علمی و ساماندهی استفاده از فناوری‌های نوین، دستورالعملی جامع در حوزه بهره‌گیری از ابزار‌های هوش مصنوعی در پژوهش را تدوین و در تاریخ ۲۹ شهریور ۱۴۰۴ به تصویب شورای علمی رساند.

این دستورالعمل که با همکاری پژوهشگران و نهاد‌های مرتبط تدوین شده و استفاده از ابزار‌های هوش مصنوعی را در تمام مراحل پژوهش از طراحی و تدوین پروپوزال گرفته تا اجرای طرح، تحلیل داده‌ها، نگارش گزارش و حتی فرآیند داوری ـ بلامانع دانسته است، مشروط بر آنکه ضوابط اخلاقی و اصول شفافیت رعایت شوند.

بر همین اساس صمدنژاد ابراهیمی مدیرکل پژوهشی وزارت علوم، تحقیقات و فناوری در گفت‌و‌گو با خبرنگار آنا، درباره جزئیات تمهیدات اندیشیده شده وزارت علوم پیرامون اجرای این آیین نامه در سطح دانشگاه‌های کشور، اظهار کرد: با گسترش روزافزون ابزار‌های مبتنی بر هوش مصنوعی، فرصت‌ها و ظرفیت‌های شایان توجهی در زمینة تولید و ارتقای محتوای علمی پدید آمده است. بهره‌گیری صحیح از این ابزار‌ها می‌تواند نقش مهمی در افزایش کیفیت، دقت و سرعت پژوهش ایفا نماید. با این‌حال، استفاده از این فناوری بدون آگاهی کافی می‌تواند چالش‌هایی هم‌چون تولید محتوای نادرست، سوگیری ناشی از داده‌های آموزشی ناقص، نقض اصول اخلاق پژوهش و تهدیداتی در زمینة امنیت اطلاعات در پی داشته باشد. ازاین‌رو، لازمة استفاده از هوش مصنوعی در فعالیت‌های علمی و پژوهشی، دقت، دانش تخصصی و رعایت اصول اخلاقی است.

وی افزود: این راهنما با هدف آشنایی هرچه بیش‌تر پژوهش‌گران، اعضای هیئت علمی، دانشجویان و دیگر اعضای جامعه علمی وابسته به وزارت علوم، تحقیقات و فناوری در فضای به‌سرعت در حال تحول هوش مصنوعی مولد (Generative AI) تدوین شده است. هدف اصلی آن، ارائة نقطة شروعی برای یادگیری مسائل مرتبط با استفاده از هوش مصنوعی، شامل مروری بر ابزار‌های تحقیقاتی محبوب، راهنمایی برای ایجاد پرسش‌های مؤثر و منابع مربوط به نگرانی‌های اخلاقی هوش مصنوعی است.

نژاد ابراهیمی، گفت: هدف این راهنما نه محدودسازی، بلکه توانمندسازی جامعة علمی برای بهره‌گیری اخلاقی، خلاقانه و مؤثر از فرصت‌های بی‌نظیر هوش مصنوعی است. دانشگاه‌ها نیز خود را متعهد به فراهم آوردن آموزش‌های لازم برای تحقق این هدف می‌دانند. در این چهارچوب، تمامی آثار علمی و پژوهشی که در فرایند تولید آنها از هوش مصنوعی استفاده می‌شود، مشمول این راهنما هستند. این آثار شامل مواردی هم‌چون طرح‌های پژوهشی، ایده‌های مکتوب، اختراعات، کشفیات، طرح‌های صنعتی، کتاب‌ها، مقالات، گزارش‌های علمی و فنی، نرم‌افزار‌ها و برنامه‌های رایانه‌ای همراه با مستندات آنها، پایان‌نامه‌ها، رساله‌ها، آثار هنری بدیع و دیگر انتشارات علمی می‌شوند. بر این اساس، لازم است توصیه‌ها و راهنمایی‌های زیر در استفادة تمامی اعضای جامعة علمی از هوش مصنوعی مدنظر قرار گیرد.

مدیرکل پژوهشی وزارت علوم، تحقیقات و فناوری، اضافه کرد: فصل اول راهنما با عنوان «خلاصه واژگان تخصصی هوش مصنوعی» نوشته شده است. هوش مصنوعی (AI) توانایی ماشین برای انجام عملکرد‌های شبیه انسان (یادگیری، استدلال، تصمیم‌گیری) است که مبتنی بر داده، شبکه و الگوریتم‌هاست. شاخه‌های کلیدی آن شامل یادگیری ماشین (ML) برای استنتاج از داده‌ها، یادگیری عمیق (DL) مبتنی بر شبکه‌های عصبی، و پردازش زبان طبیعی (NLP) برای درک زبان انسان است.

به گفته نژاد ابراهیمی، ابزار‌های هوش مصنوعی (AI Tools) پلتفرم‌هایی هستند که به کاربر کمک می‌کنند؛ از جمله ابزار‌های تولید محتوا (مانند ChatGPT، Gemini) که با استفاده از نوشتار با کمک هوش مصنوعی متن تولید می‌کنند و ابزار‌های تشخیص برای ارزیابی محتوای تولیدشده. متن تولیدشده توسط هوش مصنوعی متنی است که بر اساس داده‌های وسیع تولید می‌شود و توهم (Hallucination) به تولید خروجی‌های نادرست یا ساختگی توسط مدل‌ها اطلاق می‌شود.

وی تاکید کرد: مفاهیم مهم دیگر عبارتند از: الگوریتم (مجموعه دستورالعمل‌ها)، سوگیری (Bias) (نتایج جانبه به‌دلیل نقص در یادگیری)، اخلاق هوش مصنوعی (AI Ethics) برای توسعه مسئولانه، هوش مصنوعی عمومی (AGI) که توانایی کامل انسانی را دارد، و مدل پایه (Foundation Model) که مدلی آموزش‌دیده بر داده‌های بدون برچسب برای کاربرد‌های متنوع است. دستور (Prompt) ورودی کاربر به سیستم است.

تأکید دانشگاه‌ها بر «مسئولیت‌پذیری مطلق» پژوهشگران در قبال خروجی‌های هوش مصنوعی

وی فصل دوم این راهنما را الزامات اخلاقی، عنوان کرد و گفت: هاد‌های علمی با تکیه بر اصول اخلاقی جدید، مرز‌های استفاده از هوش مصنوعی (AI) در پژوهش را ترسیم کردند. هسته اصلی این الزامات، مسئولیت‌پذیری مطلق پژوهشگران است؛ به‌طوری که استفاده از ابزار‌های AI، مالکیت یا مسئولیت نویسندگی را به آنها منتقل نمی‌کند و خطا‌ها یا سوگیری‌های احتمالی، کاملاً بر عهده کاربر باقی می‌ماند. شفافیت‌سازی در مورد نوع و میزان دخالت ابزار‌ها در تحلیل و تولید محتوا الزامی است. مهم‌ترین دستورالعمل عملی، حفظ حریم خصوصی است؛ پژوهشگران باید از وارد کردن داده‌های حساس و محرمانه به سرویس‌های آنلاین هوش مصنوعی اکیداً خودداری کنند، مگر آنکه تضمین‌های امنیتی شفافی وجود داشته باشد. علاوه بر این، رعایت عدالت، حفظ صداقت علمی و توجه به پایداری محیط‌زیستی در استفاده از این فناوری‌ها نیز مورد تأکید قرار گرفته است.

این مقام مسئول وزارت علوم، فصل سوم این راهنما را ابزار‌های مجاز، طبقه‌بندی داده و تدارکات تعریف کرد و افزود: در راستای تقویت چارچوب اخلاق پژوهشی و امنیت داده‌ها، دستورالعمل‌های جدیدی برای دسته‌بندی و مدیریت اطلاعات در تعامل با سامانه‌های هوش مصنوعی (AI) ابلاغ شد. طبق این ابلاغیه، داده‌ها باید به سه دسته «عمومی»، «حساس» و «محرمانه» تقسیم شوند. استفاده از داده‌های محرمانه در ابزار‌های عمومی هوش مصنوعی که تحت کنترل نهاد دانشگاهی نیستند، بدون اخذ مجوز صریح، اکیداً ممنوع اعلام شده است. در بخش امنیت ابزار‌ها نیز تأکید شده است که پژوهشگران باید تنها از ابزار‌های تأییدشده توسط واحد فناوری اطلاعات یا کمیته تخصصی هوش مصنوعی دانشگاه برای پردازش داده‌های محرمانه استفاده کنند. همچنین، کلیه فرایند‌های خرید یا توسعه نرم‌افزار‌های مبتنی بر AI باید صرفاً از طریق کانال‌های رسمی تدارکات دانشگاه و پس از ارزیابی دقیق امنیتی و حقوقی صورت پذیرد تا از انطباق ابزار‌ها با سیاست‌های حفظ حریم خصوصی اطمینان حاصل شود.

نژاد ابراهیمی فصل چهارم را تصمیم‌گیری‌های حساس و عدالت عنوان کرد و دانست: استفاده از هوش مصنوعی برای تصمیم‌گیری‌های حساس و پرخطر حوزة آموزش و پژوهش مانند ارزیابی و پذیرش دانشجو، ارزیابی عملکرد آموزشی اساتید یا قضاوت‌های انضباطی، بدون ارزیابی دقیق اثرات و دریافت تأییدیة رسمی از کمیته‌های ذی‌صلاح ممنوع است. علاوه بر پرهیز از تبعیض، باید از ظرفیت‌های هوش مصنوعی برای کمک به یادگیرندگان دارای نیاز‌های خاص، معلولیت‌ها یا زبان‌های مختلف استفاده شود. هم‌زمان باید مراقب بود که این ابزار‌ها به تشدید سوگیری‌های جنسیتی، نژادی یا طبقاتی منجر نشوند و موانعی برای گروه‌های کم‌نماینده ایجاد نکنند.

مدیرکل پژوهشی وزارت علوم فصل پنجم را مصادیق استفادة مجاز از هوش مصنوعی دانست و گفت: با گسترش روزافزون فناوری‌های نوین، هوش مصنوعی به یکی از ابزار‌های تأثیرگذار در حوزه‌ی پژوهش تبدیل شده است. استفاده از این فناوری در صورتی مجاز و قابل قبول است که در راستای ارتقای کیفیت علمی، تسهیل فرایند‌های پژوهشی و افزایش بهره‌وری باشد. از جمله مصادیق استفادة مجاز از هوش مصنوعی به شرح زیر است:

ویرایش و بهبود زبانی متون: بازنویسی، ویرایش و ترجمة متون علمی (مثلاً استفاده از ابزار‌های ترجمة ماشینی و اصلاح زبان) تحت نظارت مؤلف، ایده‌پردازی و طرح‌ریزی: استفاده از هوش مصنوعی برای ایجاد ایده‌های اولیه، طوفان فکری و تدوین چهارچوب کلی طرح پژوهشی (بدون جایگزینی نقش پژوهشگر)، مرور و تحلیل منابع علمی: خلاصه‌سازی مقالات، بررسی حجم وسیعی از اطلاعات و کمک به شناسایی مطالعات مرتبط با موضوع پژوهش، پشتیبانی از نگارش فنی: تولید پیش‌نویس کد‌های ساده، نمودار‌ها یا جداول کمکی با ابزار‌های هوشمند به‌منظور تسریع کار پژوهشگر (پس از تأیید و ویرایش نهایی توسط انسان)، تولید متن و تصویر یا نمودار: باید به منبع و نحوة تولید، هم‌چنین استفاده از ابزار هوش مصنوعی به‌صورت مشخص اشاره شود (نام ابزار، نسخه و تاریخ استفاده) و تحلیل داده: باید روش استفاده و اعتبار آن شرح داده شود.

مدیر کل پژوهشی وزارت علم، فصل ششم را مصادیق استفاده غیرمجاز از هوش مصنوعی نام برد و اضافه کرد: در کنار مزایای گستردة هوش مصنوعی در آموزش و پژوهش، برخی کاربرد‌های آن به دلایل اخلاقی، علمی یا حقوقی ممنوع یا مستلزم کنترل دقیق است. از جملة این مصادیق می‌توان به موارد زیر اشاره کرد:تولید داده‌ها و نتایج ساختگی: تولید تصاویر یا نمودار‌های علمی در بخش‌های پژوهشی اصلی بدون ذکر منبع، روش تولید، ایجاد مقالات جعلی، داده‌های دست‌کاری‌شده یا جعل نتایج آزمایشی و پژوهشی توسط هوش مصنوعی مطلقاً مجاز نیست، اما تولید داده‌های مصنوعی (Synthetic Data) برای استفاده در فرایند‌های پژوهشی مشکلی ندارد. جعل و تحریف منابع: تولید منابع جعلی، ایجاد ارجاعات غیرواقعی، تغییر نادرست متون علمی یا ادعای مطالعات و داده‌های ساختگی با کمک هوش مصنوعی مجاز نیست. جایگزینی کامل مسئولیت پژوهش: سپردن تهیة کامل پیش‌نویس مقاله یا انجام کل پژوهش به هوش مصنوعی بدون بازنگری دقیق و اصلاح توسط پژوهشگر انسانی مجاز نیست. سوءاستفادة آموزشی، استفاده از ابزار‌های هوش مصنوعی برای انجام تکالیف درسی یا پروژه‌های دانشجویی به‌صورت پنهان/ مخفی از استاد و بدون تأیید وی مجاز نیست.

نژاد ابراهیمی تاکید کرد: نقض حقوق مالکیت فکری: تولید محتوای خلاقانه توسط هوش مصنوعی و ادعای آن به‌عنوان اثر انسان بدون ذکر منبع یا مشارکت انسانی ممنوع است. تولید محتوای بازنویسی‌شده از آثار دیگران بدون ارجاع مناسب. مثال‌هایی برای شناخت بهتر مرز بین استفادة مجاز و غیرمجاز استفادة مجاز (ابزار کمک‌آموزشی):استفاده از هوش مصنوعی برای خلاصه‌سازی یک مقالة طولانی چاپ‌شده به‌منظور درک بهتر محتوای آن، بازنویسی پاراگرافی که دانشجو خود نوشته است، برای بهبود و روان‌سازی جملات، مشورت با هوش مصنوعی برای دریافت ایده‌های اولیه (طوفان فکری) دربارة یک موضوع. استفادة غیرمجاز (تقلب) شامل کپی کردن مستقیم پاسخ یک پرسش تحلیلی یا مسئله از هوش مصنوعی و ارائة آن به‌عنوان کار خود، ارائة متنی که بخش عمدة آن با هوش مصنوعی تولید شده و نقش دانشجو صرفاً ویرایش جزئی بوده است و استفاده از هوش مصنوعی برای تولید کد‌های برنامه‌نویسی یک پروژة درسی، بدون درک عملکرد کد و صرفاً با هدف تحویل تکلیف و پنهان‌سازی از استاد درس.

الزام گزارش‌دهی شفاف به هوش مصنوعی در پژوهش

نژاد ابراهیمی فصل هفتم را شامل الزامات استناد و ارجاع به استفاده از ابزار‌های هوش مصنوعی برشمرد و افزود: برای حفظ صداقت علمی، پژوهشگران موظف به استناد و ارجاع شفاف به نقش ابزار‌های هوش مصنوعی (AI) در تولید یا تحلیل محتوا هستند. این گزارش‌دهی باید شامل جزئیات دقیق نوع ابزار، عملکرد آن و نحوه اعتبارسنجی خروجی توسط انسان باشد و معمولاً در بخش «تقدیر و تشکر» یا بیانیه‌ای جداگانه درج می‌گردد. این دستورالعمل‌ها همچنین الگو‌های استاندارد ارجاع‌دهی در سبک‌های APA، MLA و شیکاگو را مشخص کرده‌اند که باید نام شرکت سازنده (مانند OpenAI)، نسخه مدل و تاریخ دسترسی را در بر گیرند. تأکید نهایی بر این است که هوش مصنوعی هرگز نباید به عنوان نویسنده ذکر شود، بلکه صرفاً کاربرد آن باید گزارش گردد تا سیاست‌های ناشران علمی رعایت شود.

وی عنوان فصل هشتم را ثبت سوابق و بازتولیدپذیری نامید و تاکید کرد: کاربران موظف هستند دربخشی با عنوان "بیانیة استفاده از هوش مصنوعی" یا در بخش روش‌شناسی، نقش دقیق ابزار مورد استفاده را شرح دهند. این شرح باید مشخص کند که در کدام مراحل (مانند ایده‌پردازی، تحلیل داده، ویرایش متن) و با چه هدفی از هوش مصنوعی استفاده شده است. نیازی به ارائة کامل تعاملات نیست، مگر در مواردی که استاد راهنما یا مشاور آن را ضروری بداند. با توجه به این‌که خروجی مدل‌های ابری ممکن است تکرارپذیر نباشد، پژوهشگران باید این محدودیت را در بخش روش‌شناسی گزارش دهند. در صورت امکان، توصیه می‌شود از مدل‌های محلی یا متن‌باز استفاده شود.

ناشران معتبر بین‌المللی؛ هوش مصنوعی در داوری علمی فقط برای پشتیبانی

این مقام مسئول فصل نهم را سیاست ناشران درباره استفاده از هوش مصنوعی در فرایند داوری (Peer Review) عنوان کرد و افزود: ناشران برجسته‌ای مانند Nature، Elsevier و Springer سیاست‌هایی سختگیرانه برای استفاده داوران از ابزار‌های هوش مصنوعی (AI) تدوین کرده‌اند. این سیاست‌ها بر حفظ محرمانگی و کیفیت علمی متمرکز است. الزامات کلیدی شامل ممنوعیت تصمیم‌گیری نهایی: داوران مجاز به استفاده از AI برای نگارش گزارش یا اتخاذ تصمیم نهایی در مورد مقالات نیستند. حفاظت از محرمانگی: بارگذاری اطلاعات محرمانه مقالات در پلتفرم‌های عمومی AI تحت هیچ شرایطی مجاز نیست. مسئولیت‌پذیری کامل: در صورت استفاده از AI برای کار‌هایی مانند خلاصه‌سازی، مسئولیت کامل تحلیل انتقادی و قضاوت علمی همچنان بر عهده داور انسانی باقی می‌ماند و AI جایگزین قضاوت وی نمی‌شود.

ویراستاران مجلات علمی زیر ذره‌بین

نژاد ابراهیمی فصل دهم را سیاست‌های ویراستاران علمی نامید و افزود:ناشران بین‌المللی استفاده ویراستاران علمی از هوش مصنوعی را تنها به نقش پشتیبان محدود کرده‌اند. ویراستاران موظفند در صورت استفاده برای خلاصه‌سازی یا بررسی زبانی، شفافیت کامل را رعایت کنند. آپلود اطلاعات محرمانه مقالات در پلتفرم‌های AI اکیداً ممنوع است و مسئولیت کامل اخلاقی و علمی تصمیمات همچنان بر عهده ویراستار انسانی باقی خواهد ماند.

نقشه راه استفاده از AI در رشته‌های مختلف علمی

مدیر کل پژوهشی وزارت علوم فصل یازدهم را استاندارد‌های حوزه‌ای AI برشمرد و گفت: استفاده از هوش مصنوعی در حوزه‌های علمی متناسب با ماهیت آن رشته تعریف شد. در علوم انسانی، AI دستیار تفسیر و ترجمه است و تولید خودکار اثر بدون ذکر AI تخلف است. در علوم اجتماعی، تمرکز بر جلوگیری از سوگیری‌های الگوریتمی است. علوم پایه و مهندسی از AI برای مدل‌سازی و تحلیل داده‌های پیچیده بهره می‌برند، اما شفاف‌سازی کامل روش و داده‌های ورودی الزامی است. در علوم پزشکی، اعتبارسنجی مدل توسط متخصص و حفظ حریم خصوصی داده‌ها حیاتی است. در هنر و معماری نیز شفافیت در مورد سهم AI در خلق اثر و رعایت مالکیت فکری تأکید شده است.

تأکید بر «سواد هوش مصنوعی» در دانشگاه‌ها و لزوم ایجاد کمیته‌های تخصصی برای نظارت بر تخلفات

وی در پایان فصل دوازدهم و سیزدهم را سوادآموزی و نظارت نامید و گفت: مراکز آموزشی موظف به برگزاری دوره‌های آموزشی برای ارتقای سواد هوش مصنوعی اعضا هستند تا توانایی ارزیابی انتقادی خروجی‌های AI فراهم شود. در بخش نظارت، بر تشکیل کمیته‌های تخصصی اخلاق پژوهش و آموزش هوش مصنوعی تأکید شده است. اگرچه ابزار‌های فنی برای تشخیص متن AI استفاده می‌شوند، تصمیم نهایی در مورد تخلفات منوط به بررسی جامع شواهد و اعطای فرصت دفاع منصفانه به فرد خواهد بود. این راهنما یک سند پویا است که به‌صورت دوره‌ای به‌روزرسانی می‌شود.

به گزارش آنا، این راهنما تحت نظارت دفتر سیاستگذاری و برنامه‌ریزی امور پژوهشی و با تأیید معاونت پژوهشی وزارت علوم، تحقیقات و فناوری تهیه شده است و با سفارش دفتر سیاستگذاری و برنامه ریز امور پژوهشی در موسسه تحقیقات سیاست علمی کشور به چاپ میرسد.

انتهای پیام/