شناسهٔ خبر: 75154445 - سرویس اجتماعی
نسخه قابل چاپ منبع: آنا | لینک خبر

رئیس ایرانداک در گفت‌وگو با آنا پاسخ داد

آیا ابزارهای جهانی می‌توانند متون پژوهشی هوش مصنوعی را تشخیص دهند

در عصری که هوش مصنوعی به کمک دانشجویان و پژوهشگران آمده و نوشتن پایان‌نامه یا مقاله دیگر تنها وابسته به قلم و ذهن انسان نیست، یک پرسش بنیادین مطرح می‌شود: چگونه بفهمیم این متن را انسان نوشته یا ماشین؟ با وجود ادعا‌های جهانی برای تشخیص متون تولیدشده توسط ابزار‌هایی مانند چت‌جی‌پی‌تی، رئیس پژوهشگاه علوم و فناوری اطلاعات ایران (ایرانداک) در این باره توضیح می‌دهد.

صاحب‌خبر -

به گزارش خبرگزاری آنا، با گسترش هوش مصنوعی در سطح جهان و ورود گسترده آن به ایران، فضای علمی و دانشگاهی کشور نیز به‌طور مستقیم تحت تأثیر این فناوری قرار گرفته است. امروزه دانشجویان در تمام دانشگاه‌ها، چه در مقطع کارشناسی و چه در دوره‌های تحصیلات تکمیلی، برای انجام پژوهش‌ها و نگارش مقالات خود به سراغ ابزار‌های مبتنی بر هوش مصنوعی می‌روند. این ابزار‌ها سرعت و دقت در کار علمی را بالا برده و بسیاری از فرآیند‌های زمان‌بر مانند جمع‌آوری داده، بازنویسی متون علمی، ترجمه و حتی تولید پیش‌نویس مقاله را آسان‌تر کرده‌اند.

با وجود این مزایا، یک چالش اساسی پیش روی دانشگاه‌ها و مراکز علمی قرار دارد: حفظ اصالت پژوهش و جلوگیری از تکیه بیش از حد به متن‌های تولیدی هوش مصنوعی. استفاده بی‌ضابطه از این فناوری ممکن است منجر به افت کیفیت علمی، افزایش موارد مشابهت غیرمجاز و در نهایت خدشه‌دار شدن اعتبار مقالات و پایان‌نامه‌ها شود. از این‌رو، کارشناسان و مدیران حوزه علم و فناوری بر این باورند که بهره‌گیری از ابزار‌های هوش مصنوعی برای تشخیص محتوای تولیدشده توسط ماشین همان‌قدر ضروری است که استفاده از خود این فناوری در پژوهش.

این ابزار‌های تشخیص نقش مهمی در شفاف‌سازی فرایند علمی دارند. همان‌طور که سال‌ها پیش سامانه‌های مشابه‌یاب برای شناسایی سرقت علمی ایجاد شدند، امروز نیز نیاز به سامانه‌هایی احساس می‌شود که بتوانند متن‌های تولیدشده با هوش مصنوعی را شناسایی کرده و سهم واقعی تلاش انسانی پژوهشگر را مشخص کنند. چنین ابزار‌هایی با ترکیب الگوریتم‌های پیشرفته پردازش زبان، یادگیری ماشین و تحلیل سبکی می‌توانند به دانشگاه‌ها در ارزیابی کیفی متون کمک کنند.

به نظر می‌رسد آینده پژوهش در ایران و جهان نه در پرهیز از هوش مصنوعی بلکه در استفاده مسئولانه و کنترل‌شده از آن رقم خواهد خورد. در این مسیر، توسعه ابزار‌های تشخیص، بخشی حیاتی از تضمین اصالت و اعتبار علمی به شمار می‌رود.

به همین منظور؛ محمدحسن‌زاده، رئیس پژوهشگاه علوم و فناوری اطلاعات ایران (ایرانداک)، در گفت‌و‌گو با خبرنگار آنا، با اشاره به طراحی نرم افزار‌های جلوگیری از تقلب در تحقیقات علمی با استفاده از چت جی پی تی‌ها، اظهار کرد: استفاده از ابزار‌های هوش مصنوعی در فرایند پژوهش، امر نامناسب نیست و حتی پسندیده است. 

وی با بیان اینکه، پژوهشگران باید بتوانند از ابزار‌های جدید برای پیشبرد پژوهش خود استفاده کنند؛ تاکید کرد: ابزار‌های هوش منصوعی امکانات بسیار خوبی برای استفاده مسئولانه محققان فراهم کرده‌اند. 

رئیس پژوهشگاه علوم و فناوری اطلاعات ایران اضافه کرد: این روز‌ها دو رویکرد اصلی در جهان نسبت به هوش مصنوعی در پژوهش دنبال می‌شود؛ نخست آنکه پژوهشگر موظف است شفاف اعلام کند در کدام بخش از کار از ابزار‌های هوش مصنوعی بهره برده است و دوم آنکه این بهره‌برداری نباید به گونه‌ای باشد که پدیدآوری انسانی در علم را بی‌اعتبار کند؛ چرا که این معضل در گذشته و در حال حاضر غیرقانونی، غیرعلمی و غیراخلاقی شمرده شده و می‌شوند. 
 
 تجربه ایرانداک در همانندجویی

رئیس ایرانداک به معرفی سامانه «ریوایور» (REVIEWER) پرداخت و گفت: این سامانه سال ۱۴۰۲ طراحی شده و نسل سوم همانندجویی در ایران است که قادر به شناسایی بیش از ۸۰ نوع دستکاری در متون علمی از جمله جابه‌جایی جملات یا تغییر واژگان است. 

به گفتهٔ او، اگر کاربر متنی را بارگذاری کند و در آن دستکاری انجام دهد مانند جابه‌جایی نقطه‌ها، تغییر ترتیب جملات، کاهش تعداد واژگان یا حذف بخش‌هایی که با متون دیگر همانندی ندارند سیستم این تغییرات را شناسایی کرده و به اپراتور اطلاع می‌دهد که متن دستکاری‌شده است و قابلیت همانندجویی ندارد. در این صورت، متن به کاربر بازمی‌گردد تا اصلاح شود و سپس مجدداً بررسی شود.

تشخیص متون هوش مصنوعی؛ چالشی حل‌نشده برای سامانه‌های همانندجویی

حسن‌زاده، با اشاره به دشواری‌های روزافزون در تشخیص متون تولیدشده توسط هوش مصنوعی، گفت: از حدود دو سال پیش که هوش مصنوعی مولد (GAI) شکل گرفته است، مسئولیت‌های سامانه ایرانداک به‌طور چشمگیری سنگین‌تر شده است؛ چرا که از این پس با پایان‌نامه‌هایی روبه‌رو خواهیم بود که ممکن است به‌صورت غیرمجاز یا غیرمعمول از هوش مصنوعی استفاده کرده باشند.

وی افزود: در بررسی‌های شخصی‌ام، متنی را با استفاده از چت‌جی‌پی‌تی تولید کردم و آن را به ابزار‌هایی سپردم که ادعا می‌کنند قادر به شناسایی متون هوش مصنوعی هستند. نتیجه این بود که دقت این ابزار‌ها بسیار پایین است؛ به‌طوری که اکثر آنها نمی‌توانند تشخیص دهند متن مورد نظر توسط هوش مصنوعی نوشته شده یا دست‌نوشتهٔ انسان است.

حسن‌زاده ادامه داد: این موضوع امروز یک چالش پژوهشی جدی برای تمام سامانه‌های همانندجویی در سطح جهانی محسوب می‌شود. حتی یکی از کشور‌های پیشرو در این حوزه که ادعای توانایی تشخیص متون هوش مصنوعی را داشت، در جلسه‌ای حضوری اکانت آزمایشی از سامانه خود را در اختیار ما قرار داد. در آن آزمایش، متنی که به‌طور قطعی توسط چت‌جی‌پی‌تی تولید شده بود، توسط این سامانه به‌عنوان متنی اصل و انسانی با ۹۹ درصد اطمینان شناسایی شد.

وی توضیح داد: حتی ابزار برخی کشور‌ها که مدعی تشخیص دقیق بودند، در ارزیابی‌های آزمایشی ایرانداک عملاً عملکردی نزدیک به صفر درصد نشان دادند. حتی، مقاله‌ای که خود از چت جی پی تی استفاده کرده بودم را بارگذاری کردم، اما چت جی پی تی نتوانست آن را تشخیص دهد. تشخیص استفاده از چت جی پی تی و سایر محصولات هوش مصنوعی به سادگی امکان پذیر نیست و به عنوان زمینه نوآورانه پژوهشی برای تمام سامانه‌های همانندجو مسئله است. 

رئیس پژوهشگاه ایرانداک افزود: با توجه به ناتوانی محصولات موجود هوش مصنوعی در دنیا، پژوهشگران این مرکز تحقیقات جدی و عمیقی را برای ساخت سامانه بومی تشخیص متون تولیدشده با هوش مصنوعی آغاز کرده‌اند. او ابراز امیدواری کرد که ایرانداک به زودی یکی از سامانه‌های برتر و پیشگام این عرصه را در اختیار دانشگاه‌ها قرار دهد.

نقش دانشگاه‌ها در پذیرش همانندجویی

حسن‌زاده درباره درصد‌های همانندجویی مجاز توضیح داد: بررسی «پروپوزال»‌ها در قالب فرآیند مشابهت‌یابی و بررسی «پایان‌نامه»‌ها از مسیر همانندجویی انجام می‌شود. درصد مجاز همانندی متون نیز به تشخیص دانشگاه‌ها تعیین می‌شود؛ به طور مثال برخی دانشگاه‌ها ۲۵ درصد و برخی تا ۳۰ درصد مشابهت را می‌پذیرند. در صورتی که گزارش ایرانداک بیش از این حد باشد، دانشجو موظف است متن خود را اصلاح و مجدداً برای بررسی ارسال کند.

انتهای پیام/