شناسهٔ خبر: 75453853 - سرویس اجتماعی
نسخه قابل چاپ منبع: آنا | لینک خبر

در گفت‌و‌گو با آنا:

استفاده نادرست از ChatGPT کیفیت علمی را تهدید می‌کند

یک استاد دانشگاه و پژوهشگر هوش‌مصنوعی هشدار می‌دهد که استفاده نادرست از ChatGPT در تکالیف و پایان‌نامه‌ها، کیفیت علمی دانشگاه‌ها را تهدید می‌کند و می‌تواند مهارت‌های پژوهشی و تفکر انتقادی دانشجویان را کاهش دهد که دانشگاه‌ها برای جلوگیری از این خطر، به تدوین سیاست‌های شفاف و آموزش اخلاقی در استفاده از هوش مصنوعی روی آورده‌اند.

صاحب‌خبر -

اخیرا، بحث استفاده از هوش مصنوعی مولد مانند ChatGPT در فضای دانشگاهی به یکی از داغ‌ترین موضوعات آموزش عالی تبدیل شده است. از کلاس‌های مجازی گرفته تا نگارش مقالات و پایان‌نامه‌ها، حضور این ابزار‌ها دیگر یک پدیده حاشیه‌ای نیست، بلکه بخشی از واقعیت روزمره آموزش شده است.

گزارش‌ها و اظهارات کارشناسان نشان می‌دهد که نگاه نظام آموزشی ایران و جهان به این فناوری در دو قطب متضاد قرار گرفته است: گروهی آن را فرصتی برای تحول در یادگیری و تسهیل پژوهش می‌دانند، و گروهی دیگر نسبت به کاهش کیفیت علمی و رشد پدیده «تقلب فناورانه» هشدار می‌دهند.

مطالعات بین‌المللی نیز مؤید آن است که بسیاری از دانشگاه‌ها هنوز در مرحله آزمون و خطا هستند و چارچوبی شفاف برای استفاده آموزشی از هوش مصنوعی تعریف نکرده‌اند. در ایران نیز برخی نهاد‌های علمی، از جمله بنیاد ملی نخبگان، تدوین آیین‌نامه‌هایی برای تبیین این مرز باریک میان «استفاده آموزشی» و «سوءاستفاده علمی» را آغاز کرده‌اند.

با این حال، پرسش محوری همچنان پابرجاست: چگونه می‌توان از ظرفیت هوش مصنوعی برای ارتقای یادگیری بهره برد، بی‌آنکه اصالت علمی و اخلاق پژوهش قربانی شود؟

در ادامه، گفت‌وگویی داریم با علی شاکر دکترای علوم ارتباطات اجتماعی دانشگاه علامه طباطبایی و پژوهشگر هوش مصنوعی که دیدگاه‌های او درباره آسیب‌های استفاده نادرست از ChatGPT در نگارش تکالیف و پایان‌نامه‌ها، راهکار‌های پیشگیری از تقلب، و ضرورت تدوین چارچوب‌های اخلاقی در فضای آکادمیک را بررسی می‌کنیم. 

برخی دانشجویان از چت‌جی‌پی‌تی برای نوشتن کامل تکالیف و حتی پایان‌نامه‌ها استفاده می‌کنند. این مسئله چه آسیبی به کیفیت علمی وارد می‌کند؟

برای تشریح بیشتر باید بگویم که این پدیده که مصداق بارز «تقلب علمی» است، ضربه‌ای جدی به اعتبار و کیفیت نظام آکادمیک وارد می‌کند. مهم‌ترین آسیب‌ها عبارت‌اند از:

واگذاری کامل فرآیند نگارش به هوش مصنوعی، دانشجو را از کسب توانایی‌های ضروری مانند تفکر انتقادی، حل مسئله و تحلیل محروم می‌کند. مدل‌های زبانی بزرگ گاهی دچار «توهم» شده و اطلاعات نادرست یا منابع جعلی تولید می‌کنند. ورود این داده‌های غلط به پژوهش‌های دانشگاهی، چرخه‌ی تولید علم را مخدوش می‌کند. هدف علم، تولید دانش جدید است. استفاده‌ی صرف از هوش مصنوعی برای بازآرایی اطلاعات موجود، به تکرار و عدم نوآوری منجر می‌شود.

اگر نتوان به اصالت علمی پایان‌نامه‌ها و پژوهش‌های دانشگاهی اعتماد کرد، مدرک تحصیلی نیز ارزش خود را از دست می‌دهد. البته این چیزی است که همین امروز هم شاهد آن هستیم.

عادی‌سازی چنین رفتاری، صداقت و مسئولیت‌پذیری را که از ارکان اصلی جامعه علمی است، از بین می‌برد و تبعات آن در آینده‌ای کم و بیش نزدیک خودش را نشان می‌دهد.

دانشگاه‌ها چه‌طور می‌توانند بین «استفاده آموزشی» و «سوءاستفاده» مرزگذاری کنند؟

مرزگذاری میان این دو نیازمند یک رویکرد چندبعدی و فعالانه از سوی دانشگاه‌ها است، نه یک سیاست صرفاً منع‌کننده. به طور کلی در حال حاضر برخی از راه‌حل‌هایی که به نظر می‌رسد می‌تواند شامل این باشد که مثلا دانشگاه‌ها آیین‌نامه‌های روشنی تدوین کنند که در آن مشخص شود استفاده از ابزار‌های هوش مصنوعی در چه تکالیفی، تا چه حد و با چه شرایطی مجاز است. خوشبختانه بنیاد نخبگان این کار را شروع کرده. از طرف دیگر، اصلی‌ترین راهکار، ملزم کردن دانشجویان به اعلام صریح این موضوع است که در کدام بخش از تکلیف خود از هوش مصنوعی استفاده کرده‌اند.

استادان باید تکالیفی طراحی کنند که کمتر بر «محصول نهایی» و بیشتر بر «فرآیند تفکر» متمرکز باشد. برای نمونه در ترم پیش من از دانشجویان خواستم که به جای پاسخ دادن به سوال در طول ترم، از زندگی روزمره‌ خود و از پشت عینک علوم ارتباطات (رشته‌ تحصیلی‌شان) سوال طراحی کنند و در نهایت به یک سوال مشخص و واحد برسند. سر آخر هم یکی از سوال‌های انتهای ترم در امتحان این بود که سوال خود را بنویسند و به آن پاسخ دهند. به این ترتیب دانشجو تشویق می‌شود به تفکر درباره‌ زندگی روزمره‌ خودش. پس می‌توان با تکالیفی مثل ارائه‌ها یا امتحان‌های شفاهی، پروژه‌های عملی و آزمون‌های حضوری امکان تقلب را کاهش داد نه از این لحاظ که نظام آموزشی به وجه نظارتی خود افتخار کند و بگوید جلو تقلب را گرفتم از این لحاظ که تقلب امروز دانشجو، آینده خود و جامعه‌اش را تباه می‌کند.

این را هم باید تاکید کنم که دانشگاه‌ها باید کارگاه‌هایی برای آموزش دانشجویان و استادان در زمینه استفاده‌ی مؤثر و اخلاقی از این ابزار‌ها برگزار کنند.

آیا ابزار‌های ضدتقلب و تشخیص متن هوش مصنوعی در ایران قابل استفاده هستند؟

بله، این ابزار‌ها از نظر فنی قابل استفاده هستند، اما اتکای صرف به آنها نه ممکن و نه مطلوب است. چندین نکته در این زمینه وجود دارد. چون این ابزار بسیار در تقلب و بستن راهی که تشخیص بدهید متن تولید شده تقلبی است، مهارت دارند.

ابزار‌های تشخیص متن تولیدشده با هوش مصنوعی صددرصد دقیق نیستند و نرخ خطای قابل زیادی دارند. این ابزار‌ها در تشخیص متون فارسی ممکن است دقت کمتری داشته باشند. بگذارید دوباره تاکید کنم روی اینکه فناوری هوش مصنوعی به‌سرعت در حال پیشرفت است و با هر نسخه‌ جدیدتر، تشخیص محتوای تولیدی آنها دشوارتر می‌شود. بسیاری از این ابزار‌های پیشرفته، تجاری هستند و استفاده از آنها برای تمام دانشگاه‌ها ممکن است با محدودیت‌های مالی یا فنی مواجه باشد. کار دانشگاه و استاد این نیست که مثل یک کارآگاه پی نشانه‌های تقلب بگردد. چون مهم‌تر از شناسایی تقلب، پیشگیری از آن است. سرمایه‌گذاری بر آموزش، فرهنگ‌سازی و بازطراحی تکالیف، راهبردی پایدارتر از خرید ابزار‌های تشخیص است.

از نظر شما اگر قرار باشد یک چارچوب اخلاقی یا قانونی برای استفاده دانشجویان از چت‌جی‌پی‌تی تعریف شود، مهم‌ترین بند آن باید چه باشد؟

فکر می‌کنم مهم‌ترین و محوری‌ترین بند در هر چارچوب اخلاقی باید اصل «شفافیت و مسئولیت‌پذیری نهایی مؤلف» باشد. یعنی «دانشجو موظف است در تمام آثار علمی خود (اعم از تکالیف، مقالات و پایان‌نامه)، هرگونه استفاده از ابزار‌های هوش مصنوعی مولد را به صورت شفاف اعلام کند. این اعلام باید شامل ذکر نام ابزار، نحوه‌ استفاده و سهم آن در تولید اثر باشد. در هر حال، مسئولیت کامل صحت، اصالت و رعایت اخلاق علمی محتوای ارائه‌شده، بدون هیچ قید و شرطی، بر عهده‌ی دانشجو به‌عنوان مؤلف انسانی اثر است.»

به این ترتیب، چنین دیدگاهی راه را برای استفاده‌ سازنده از فناوری باز می‌گذارد، صداقت علمی را ترویج می‌دهد و مسئولیت را به روشنی به انسان بازمی‌گرداند. این اصل، سنگ بنای همزیستی هوشمندانه و اخلاقی میان انسان و هوش مصنوعی در فضای آکادمیک خواهد بود. چون اگر خود مولف نگوید، انرژی مصرف شده برای تشخیص بسیار زیاد و هزینه‌بر است.

در مجموع، ورود هوش مصنوعی به دانشگاه‌ها، همان‌قدر که فرصتی برای تحول در آموزش است، تهدیدی جدی برای اصالت علمی نیز به شمار می‌رود.

انتهای پیام/