به گزارش خبرگزاری آنا، بنیاد ملی علم ایران با هدف صیانت از اخلاق علمی و ساماندهی استفاده از فناوریهای نوین، دستورالعملی جامع در حوزه بهرهگیری از ابزارهای هوش مصنوعی در پژوهش را تدوین و در تاریخ ۲۹ شهریور ۱۴۰۴ به تصویب شورای علمی رساند.
این دستورالعمل که با همکاری پژوهشگران و نهادهای مرتبط تدوین شده و استفاده از ابزارهای هوش مصنوعی را در تمام مراحل پژوهش از طراحی و تدوین پروپوزال گرفته تا اجرای طرح، تحلیل دادهها، نگارش گزارش و حتی فرآیند داوری ـ بلامانع دانسته است، مشروط بر آنکه ضوابط اخلاقی و اصول شفافیت رعایت شوند.
بر همین اساس صمدنژاد ابراهیمی مدیرکل پژوهشی وزارت علوم، تحقیقات و فناوری در گفتوگو با خبرنگار آنا، درباره جزئیات تمهیدات اندیشیده شده وزارت علوم پیرامون اجرای این آیین نامه در سطح دانشگاههای کشور، اظهار کرد: با گسترش روزافزون ابزارهای مبتنی بر هوش مصنوعی، فرصتها و ظرفیتهای شایان توجهی در زمینة تولید و ارتقای محتوای علمی پدید آمده است. بهرهگیری صحیح از این ابزارها میتواند نقش مهمی در افزایش کیفیت، دقت و سرعت پژوهش ایفا نماید. با اینحال، استفاده از این فناوری بدون آگاهی کافی میتواند چالشهایی همچون تولید محتوای نادرست، سوگیری ناشی از دادههای آموزشی ناقص، نقض اصول اخلاق پژوهش و تهدیداتی در زمینة امنیت اطلاعات در پی داشته باشد. ازاینرو، لازمة استفاده از هوش مصنوعی در فعالیتهای علمی و پژوهشی، دقت، دانش تخصصی و رعایت اصول اخلاقی است.
وی افزود: این راهنما با هدف آشنایی هرچه بیشتر پژوهشگران، اعضای هیئت علمی، دانشجویان و دیگر اعضای جامعه علمی وابسته به وزارت علوم، تحقیقات و فناوری در فضای بهسرعت در حال تحول هوش مصنوعی مولد (Generative AI) تدوین شده است. هدف اصلی آن، ارائة نقطة شروعی برای یادگیری مسائل مرتبط با استفاده از هوش مصنوعی، شامل مروری بر ابزارهای تحقیقاتی محبوب، راهنمایی برای ایجاد پرسشهای مؤثر و منابع مربوط به نگرانیهای اخلاقی هوش مصنوعی است.
نژاد ابراهیمی، گفت: هدف این راهنما نه محدودسازی، بلکه توانمندسازی جامعة علمی برای بهرهگیری اخلاقی، خلاقانه و مؤثر از فرصتهای بینظیر هوش مصنوعی است. دانشگاهها نیز خود را متعهد به فراهم آوردن آموزشهای لازم برای تحقق این هدف میدانند. در این چهارچوب، تمامی آثار علمی و پژوهشی که در فرایند تولید آنها از هوش مصنوعی استفاده میشود، مشمول این راهنما هستند. این آثار شامل مواردی همچون طرحهای پژوهشی، ایدههای مکتوب، اختراعات، کشفیات، طرحهای صنعتی، کتابها، مقالات، گزارشهای علمی و فنی، نرمافزارها و برنامههای رایانهای همراه با مستندات آنها، پایاننامهها، رسالهها، آثار هنری بدیع و دیگر انتشارات علمی میشوند. بر این اساس، لازم است توصیهها و راهنماییهای زیر در استفادة تمامی اعضای جامعة علمی از هوش مصنوعی مدنظر قرار گیرد.
مدیرکل پژوهشی وزارت علوم، تحقیقات و فناوری، اضافه کرد: فصل اول راهنما با عنوان «خلاصه واژگان تخصصی هوش مصنوعی» نوشته شده است. هوش مصنوعی (AI) توانایی ماشین برای انجام عملکردهای شبیه انسان (یادگیری، استدلال، تصمیمگیری) است که مبتنی بر داده، شبکه و الگوریتمهاست. شاخههای کلیدی آن شامل یادگیری ماشین (ML) برای استنتاج از دادهها، یادگیری عمیق (DL) مبتنی بر شبکههای عصبی، و پردازش زبان طبیعی (NLP) برای درک زبان انسان است.
به گفته نژاد ابراهیمی، ابزارهای هوش مصنوعی (AI Tools) پلتفرمهایی هستند که به کاربر کمک میکنند؛ از جمله ابزارهای تولید محتوا (مانند ChatGPT، Gemini) که با استفاده از نوشتار با کمک هوش مصنوعی متن تولید میکنند و ابزارهای تشخیص برای ارزیابی محتوای تولیدشده. متن تولیدشده توسط هوش مصنوعی متنی است که بر اساس دادههای وسیع تولید میشود و توهم (Hallucination) به تولید خروجیهای نادرست یا ساختگی توسط مدلها اطلاق میشود.
وی تاکید کرد: مفاهیم مهم دیگر عبارتند از: الگوریتم (مجموعه دستورالعملها)، سوگیری (Bias) (نتایج جانبه بهدلیل نقص در یادگیری)، اخلاق هوش مصنوعی (AI Ethics) برای توسعه مسئولانه، هوش مصنوعی عمومی (AGI) که توانایی کامل انسانی را دارد، و مدل پایه (Foundation Model) که مدلی آموزشدیده بر دادههای بدون برچسب برای کاربردهای متنوع است. دستور (Prompt) ورودی کاربر به سیستم است.
تأکید دانشگاهها بر «مسئولیتپذیری مطلق» پژوهشگران در قبال خروجیهای هوش مصنوعی
وی فصل دوم این راهنما را الزامات اخلاقی، عنوان کرد و گفت: هادهای علمی با تکیه بر اصول اخلاقی جدید، مرزهای استفاده از هوش مصنوعی (AI) در پژوهش را ترسیم کردند. هسته اصلی این الزامات، مسئولیتپذیری مطلق پژوهشگران است؛ بهطوری که استفاده از ابزارهای AI، مالکیت یا مسئولیت نویسندگی را به آنها منتقل نمیکند و خطاها یا سوگیریهای احتمالی، کاملاً بر عهده کاربر باقی میماند. شفافیتسازی در مورد نوع و میزان دخالت ابزارها در تحلیل و تولید محتوا الزامی است. مهمترین دستورالعمل عملی، حفظ حریم خصوصی است؛ پژوهشگران باید از وارد کردن دادههای حساس و محرمانه به سرویسهای آنلاین هوش مصنوعی اکیداً خودداری کنند، مگر آنکه تضمینهای امنیتی شفافی وجود داشته باشد. علاوه بر این، رعایت عدالت، حفظ صداقت علمی و توجه به پایداری محیطزیستی در استفاده از این فناوریها نیز مورد تأکید قرار گرفته است.
این مقام مسئول وزارت علوم، فصل سوم این راهنما را ابزارهای مجاز، طبقهبندی داده و تدارکات تعریف کرد و افزود: در راستای تقویت چارچوب اخلاق پژوهشی و امنیت دادهها، دستورالعملهای جدیدی برای دستهبندی و مدیریت اطلاعات در تعامل با سامانههای هوش مصنوعی (AI) ابلاغ شد. طبق این ابلاغیه، دادهها باید به سه دسته «عمومی»، «حساس» و «محرمانه» تقسیم شوند. استفاده از دادههای محرمانه در ابزارهای عمومی هوش مصنوعی که تحت کنترل نهاد دانشگاهی نیستند، بدون اخذ مجوز صریح، اکیداً ممنوع اعلام شده است. در بخش امنیت ابزارها نیز تأکید شده است که پژوهشگران باید تنها از ابزارهای تأییدشده توسط واحد فناوری اطلاعات یا کمیته تخصصی هوش مصنوعی دانشگاه برای پردازش دادههای محرمانه استفاده کنند. همچنین، کلیه فرایندهای خرید یا توسعه نرمافزارهای مبتنی بر AI باید صرفاً از طریق کانالهای رسمی تدارکات دانشگاه و پس از ارزیابی دقیق امنیتی و حقوقی صورت پذیرد تا از انطباق ابزارها با سیاستهای حفظ حریم خصوصی اطمینان حاصل شود.
نژاد ابراهیمی فصل چهارم را تصمیمگیریهای حساس و عدالت عنوان کرد و دانست: استفاده از هوش مصنوعی برای تصمیمگیریهای حساس و پرخطر حوزة آموزش و پژوهش مانند ارزیابی و پذیرش دانشجو، ارزیابی عملکرد آموزشی اساتید یا قضاوتهای انضباطی، بدون ارزیابی دقیق اثرات و دریافت تأییدیة رسمی از کمیتههای ذیصلاح ممنوع است. علاوه بر پرهیز از تبعیض، باید از ظرفیتهای هوش مصنوعی برای کمک به یادگیرندگان دارای نیازهای خاص، معلولیتها یا زبانهای مختلف استفاده شود. همزمان باید مراقب بود که این ابزارها به تشدید سوگیریهای جنسیتی، نژادی یا طبقاتی منجر نشوند و موانعی برای گروههای کمنماینده ایجاد نکنند.
مدیرکل پژوهشی وزارت علوم فصل پنجم را مصادیق استفادة مجاز از هوش مصنوعی دانست و گفت: با گسترش روزافزون فناوریهای نوین، هوش مصنوعی به یکی از ابزارهای تأثیرگذار در حوزهی پژوهش تبدیل شده است. استفاده از این فناوری در صورتی مجاز و قابل قبول است که در راستای ارتقای کیفیت علمی، تسهیل فرایندهای پژوهشی و افزایش بهرهوری باشد. از جمله مصادیق استفادة مجاز از هوش مصنوعی به شرح زیر است:
ویرایش و بهبود زبانی متون: بازنویسی، ویرایش و ترجمة متون علمی (مثلاً استفاده از ابزارهای ترجمة ماشینی و اصلاح زبان) تحت نظارت مؤلف، ایدهپردازی و طرحریزی: استفاده از هوش مصنوعی برای ایجاد ایدههای اولیه، طوفان فکری و تدوین چهارچوب کلی طرح پژوهشی (بدون جایگزینی نقش پژوهشگر)، مرور و تحلیل منابع علمی: خلاصهسازی مقالات، بررسی حجم وسیعی از اطلاعات و کمک به شناسایی مطالعات مرتبط با موضوع پژوهش، پشتیبانی از نگارش فنی: تولید پیشنویس کدهای ساده، نمودارها یا جداول کمکی با ابزارهای هوشمند بهمنظور تسریع کار پژوهشگر (پس از تأیید و ویرایش نهایی توسط انسان)، تولید متن و تصویر یا نمودار: باید به منبع و نحوة تولید، همچنین استفاده از ابزار هوش مصنوعی بهصورت مشخص اشاره شود (نام ابزار، نسخه و تاریخ استفاده) و تحلیل داده: باید روش استفاده و اعتبار آن شرح داده شود.
مدیر کل پژوهشی وزارت علم، فصل ششم را مصادیق استفاده غیرمجاز از هوش مصنوعی نام برد و اضافه کرد: در کنار مزایای گستردة هوش مصنوعی در آموزش و پژوهش، برخی کاربردهای آن به دلایل اخلاقی، علمی یا حقوقی ممنوع یا مستلزم کنترل دقیق است. از جملة این مصادیق میتوان به موارد زیر اشاره کرد:تولید دادهها و نتایج ساختگی: تولید تصاویر یا نمودارهای علمی در بخشهای پژوهشی اصلی بدون ذکر منبع، روش تولید، ایجاد مقالات جعلی، دادههای دستکاریشده یا جعل نتایج آزمایشی و پژوهشی توسط هوش مصنوعی مطلقاً مجاز نیست، اما تولید دادههای مصنوعی (Synthetic Data) برای استفاده در فرایندهای پژوهشی مشکلی ندارد. جعل و تحریف منابع: تولید منابع جعلی، ایجاد ارجاعات غیرواقعی، تغییر نادرست متون علمی یا ادعای مطالعات و دادههای ساختگی با کمک هوش مصنوعی مجاز نیست. جایگزینی کامل مسئولیت پژوهش: سپردن تهیة کامل پیشنویس مقاله یا انجام کل پژوهش به هوش مصنوعی بدون بازنگری دقیق و اصلاح توسط پژوهشگر انسانی مجاز نیست. سوءاستفادة آموزشی، استفاده از ابزارهای هوش مصنوعی برای انجام تکالیف درسی یا پروژههای دانشجویی بهصورت پنهان/ مخفی از استاد و بدون تأیید وی مجاز نیست.
نژاد ابراهیمی تاکید کرد: نقض حقوق مالکیت فکری: تولید محتوای خلاقانه توسط هوش مصنوعی و ادعای آن بهعنوان اثر انسان بدون ذکر منبع یا مشارکت انسانی ممنوع است. تولید محتوای بازنویسیشده از آثار دیگران بدون ارجاع مناسب. مثالهایی برای شناخت بهتر مرز بین استفادة مجاز و غیرمجاز استفادة مجاز (ابزار کمکآموزشی):استفاده از هوش مصنوعی برای خلاصهسازی یک مقالة طولانی چاپشده بهمنظور درک بهتر محتوای آن، بازنویسی پاراگرافی که دانشجو خود نوشته است، برای بهبود و روانسازی جملات، مشورت با هوش مصنوعی برای دریافت ایدههای اولیه (طوفان فکری) دربارة یک موضوع. استفادة غیرمجاز (تقلب) شامل کپی کردن مستقیم پاسخ یک پرسش تحلیلی یا مسئله از هوش مصنوعی و ارائة آن بهعنوان کار خود، ارائة متنی که بخش عمدة آن با هوش مصنوعی تولید شده و نقش دانشجو صرفاً ویرایش جزئی بوده است و استفاده از هوش مصنوعی برای تولید کدهای برنامهنویسی یک پروژة درسی، بدون درک عملکرد کد و صرفاً با هدف تحویل تکلیف و پنهانسازی از استاد درس.
الزام گزارشدهی شفاف به هوش مصنوعی در پژوهش
نژاد ابراهیمی فصل هفتم را شامل الزامات استناد و ارجاع به استفاده از ابزارهای هوش مصنوعی برشمرد و افزود: برای حفظ صداقت علمی، پژوهشگران موظف به استناد و ارجاع شفاف به نقش ابزارهای هوش مصنوعی (AI) در تولید یا تحلیل محتوا هستند. این گزارشدهی باید شامل جزئیات دقیق نوع ابزار، عملکرد آن و نحوه اعتبارسنجی خروجی توسط انسان باشد و معمولاً در بخش «تقدیر و تشکر» یا بیانیهای جداگانه درج میگردد. این دستورالعملها همچنین الگوهای استاندارد ارجاعدهی در سبکهای APA، MLA و شیکاگو را مشخص کردهاند که باید نام شرکت سازنده (مانند OpenAI)، نسخه مدل و تاریخ دسترسی را در بر گیرند. تأکید نهایی بر این است که هوش مصنوعی هرگز نباید به عنوان نویسنده ذکر شود، بلکه صرفاً کاربرد آن باید گزارش گردد تا سیاستهای ناشران علمی رعایت شود.
وی عنوان فصل هشتم را ثبت سوابق و بازتولیدپذیری نامید و تاکید کرد: کاربران موظف هستند دربخشی با عنوان "بیانیة استفاده از هوش مصنوعی" یا در بخش روششناسی، نقش دقیق ابزار مورد استفاده را شرح دهند. این شرح باید مشخص کند که در کدام مراحل (مانند ایدهپردازی، تحلیل داده، ویرایش متن) و با چه هدفی از هوش مصنوعی استفاده شده است. نیازی به ارائة کامل تعاملات نیست، مگر در مواردی که استاد راهنما یا مشاور آن را ضروری بداند. با توجه به اینکه خروجی مدلهای ابری ممکن است تکرارپذیر نباشد، پژوهشگران باید این محدودیت را در بخش روششناسی گزارش دهند. در صورت امکان، توصیه میشود از مدلهای محلی یا متنباز استفاده شود.
ناشران معتبر بینالمللی؛ هوش مصنوعی در داوری علمی فقط برای پشتیبانی
این مقام مسئول فصل نهم را سیاست ناشران درباره استفاده از هوش مصنوعی در فرایند داوری (Peer Review) عنوان کرد و افزود: ناشران برجستهای مانند Nature، Elsevier و Springer سیاستهایی سختگیرانه برای استفاده داوران از ابزارهای هوش مصنوعی (AI) تدوین کردهاند. این سیاستها بر حفظ محرمانگی و کیفیت علمی متمرکز است. الزامات کلیدی شامل ممنوعیت تصمیمگیری نهایی: داوران مجاز به استفاده از AI برای نگارش گزارش یا اتخاذ تصمیم نهایی در مورد مقالات نیستند. حفاظت از محرمانگی: بارگذاری اطلاعات محرمانه مقالات در پلتفرمهای عمومی AI تحت هیچ شرایطی مجاز نیست. مسئولیتپذیری کامل: در صورت استفاده از AI برای کارهایی مانند خلاصهسازی، مسئولیت کامل تحلیل انتقادی و قضاوت علمی همچنان بر عهده داور انسانی باقی میماند و AI جایگزین قضاوت وی نمیشود.
ویراستاران مجلات علمی زیر ذرهبین
نژاد ابراهیمی فصل دهم را سیاستهای ویراستاران علمی نامید و افزود:ناشران بینالمللی استفاده ویراستاران علمی از هوش مصنوعی را تنها به نقش پشتیبان محدود کردهاند. ویراستاران موظفند در صورت استفاده برای خلاصهسازی یا بررسی زبانی، شفافیت کامل را رعایت کنند. آپلود اطلاعات محرمانه مقالات در پلتفرمهای AI اکیداً ممنوع است و مسئولیت کامل اخلاقی و علمی تصمیمات همچنان بر عهده ویراستار انسانی باقی خواهد ماند.
نقشه راه استفاده از AI در رشتههای مختلف علمی
مدیر کل پژوهشی وزارت علوم فصل یازدهم را استانداردهای حوزهای AI برشمرد و گفت: استفاده از هوش مصنوعی در حوزههای علمی متناسب با ماهیت آن رشته تعریف شد. در علوم انسانی، AI دستیار تفسیر و ترجمه است و تولید خودکار اثر بدون ذکر AI تخلف است. در علوم اجتماعی، تمرکز بر جلوگیری از سوگیریهای الگوریتمی است. علوم پایه و مهندسی از AI برای مدلسازی و تحلیل دادههای پیچیده بهره میبرند، اما شفافسازی کامل روش و دادههای ورودی الزامی است. در علوم پزشکی، اعتبارسنجی مدل توسط متخصص و حفظ حریم خصوصی دادهها حیاتی است. در هنر و معماری نیز شفافیت در مورد سهم AI در خلق اثر و رعایت مالکیت فکری تأکید شده است.
تأکید بر «سواد هوش مصنوعی» در دانشگاهها و لزوم ایجاد کمیتههای تخصصی برای نظارت بر تخلفات
وی در پایان فصل دوازدهم و سیزدهم را سوادآموزی و نظارت نامید و گفت: مراکز آموزشی موظف به برگزاری دورههای آموزشی برای ارتقای سواد هوش مصنوعی اعضا هستند تا توانایی ارزیابی انتقادی خروجیهای AI فراهم شود. در بخش نظارت، بر تشکیل کمیتههای تخصصی اخلاق پژوهش و آموزش هوش مصنوعی تأکید شده است. اگرچه ابزارهای فنی برای تشخیص متن AI استفاده میشوند، تصمیم نهایی در مورد تخلفات منوط به بررسی جامع شواهد و اعطای فرصت دفاع منصفانه به فرد خواهد بود. این راهنما یک سند پویا است که بهصورت دورهای بهروزرسانی میشود.
به گزارش آنا، این راهنما تحت نظارت دفتر سیاستگذاری و برنامهریزی امور پژوهشی و با تأیید معاونت پژوهشی وزارت علوم، تحقیقات و فناوری تهیه شده است و با سفارش دفتر سیاستگذاری و برنامه ریز امور پژوهشی در موسسه تحقیقات سیاست علمی کشور به چاپ میرسد.
انتهای پیام/