اخیرا، بحث استفاده از هوش مصنوعی مولد مانند ChatGPT در فضای دانشگاهی به یکی از داغترین موضوعات آموزش عالی تبدیل شده است. از کلاسهای مجازی گرفته تا نگارش مقالات و پایاننامهها، حضور این ابزارها دیگر یک پدیده حاشیهای نیست، بلکه بخشی از واقعیت روزمره آموزش شده است.
گزارشها و اظهارات کارشناسان نشان میدهد که نگاه نظام آموزشی ایران و جهان به این فناوری در دو قطب متضاد قرار گرفته است: گروهی آن را فرصتی برای تحول در یادگیری و تسهیل پژوهش میدانند، و گروهی دیگر نسبت به کاهش کیفیت علمی و رشد پدیده «تقلب فناورانه» هشدار میدهند.
مطالعات بینالمللی نیز مؤید آن است که بسیاری از دانشگاهها هنوز در مرحله آزمون و خطا هستند و چارچوبی شفاف برای استفاده آموزشی از هوش مصنوعی تعریف نکردهاند. در ایران نیز برخی نهادهای علمی، از جمله بنیاد ملی نخبگان، تدوین آییننامههایی برای تبیین این مرز باریک میان «استفاده آموزشی» و «سوءاستفاده علمی» را آغاز کردهاند.
با این حال، پرسش محوری همچنان پابرجاست: چگونه میتوان از ظرفیت هوش مصنوعی برای ارتقای یادگیری بهره برد، بیآنکه اصالت علمی و اخلاق پژوهش قربانی شود؟
در ادامه، گفتوگویی داریم با علی شاکر دکترای علوم ارتباطات اجتماعی دانشگاه علامه طباطبایی و پژوهشگر هوش مصنوعی که دیدگاههای او درباره آسیبهای استفاده نادرست از ChatGPT در نگارش تکالیف و پایاننامهها، راهکارهای پیشگیری از تقلب، و ضرورت تدوین چارچوبهای اخلاقی در فضای آکادمیک را بررسی میکنیم.
برخی دانشجویان از چتجیپیتی برای نوشتن کامل تکالیف و حتی پایاننامهها استفاده میکنند. این مسئله چه آسیبی به کیفیت علمی وارد میکند؟
برای تشریح بیشتر باید بگویم که این پدیده که مصداق بارز «تقلب علمی» است، ضربهای جدی به اعتبار و کیفیت نظام آکادمیک وارد میکند. مهمترین آسیبها عبارتاند از:
واگذاری کامل فرآیند نگارش به هوش مصنوعی، دانشجو را از کسب تواناییهای ضروری مانند تفکر انتقادی، حل مسئله و تحلیل محروم میکند. مدلهای زبانی بزرگ گاهی دچار «توهم» شده و اطلاعات نادرست یا منابع جعلی تولید میکنند. ورود این دادههای غلط به پژوهشهای دانشگاهی، چرخهی تولید علم را مخدوش میکند. هدف علم، تولید دانش جدید است. استفادهی صرف از هوش مصنوعی برای بازآرایی اطلاعات موجود، به تکرار و عدم نوآوری منجر میشود.
اگر نتوان به اصالت علمی پایاننامهها و پژوهشهای دانشگاهی اعتماد کرد، مدرک تحصیلی نیز ارزش خود را از دست میدهد. البته این چیزی است که همین امروز هم شاهد آن هستیم.
عادیسازی چنین رفتاری، صداقت و مسئولیتپذیری را که از ارکان اصلی جامعه علمی است، از بین میبرد و تبعات آن در آیندهای کم و بیش نزدیک خودش را نشان میدهد.
دانشگاهها چهطور میتوانند بین «استفاده آموزشی» و «سوءاستفاده» مرزگذاری کنند؟
مرزگذاری میان این دو نیازمند یک رویکرد چندبعدی و فعالانه از سوی دانشگاهها است، نه یک سیاست صرفاً منعکننده. به طور کلی در حال حاضر برخی از راهحلهایی که به نظر میرسد میتواند شامل این باشد که مثلا دانشگاهها آییننامههای روشنی تدوین کنند که در آن مشخص شود استفاده از ابزارهای هوش مصنوعی در چه تکالیفی، تا چه حد و با چه شرایطی مجاز است. خوشبختانه بنیاد نخبگان این کار را شروع کرده. از طرف دیگر، اصلیترین راهکار، ملزم کردن دانشجویان به اعلام صریح این موضوع است که در کدام بخش از تکلیف خود از هوش مصنوعی استفاده کردهاند.
استادان باید تکالیفی طراحی کنند که کمتر بر «محصول نهایی» و بیشتر بر «فرآیند تفکر» متمرکز باشد. برای نمونه در ترم پیش من از دانشجویان خواستم که به جای پاسخ دادن به سوال در طول ترم، از زندگی روزمره خود و از پشت عینک علوم ارتباطات (رشته تحصیلیشان) سوال طراحی کنند و در نهایت به یک سوال مشخص و واحد برسند. سر آخر هم یکی از سوالهای انتهای ترم در امتحان این بود که سوال خود را بنویسند و به آن پاسخ دهند. به این ترتیب دانشجو تشویق میشود به تفکر درباره زندگی روزمره خودش. پس میتوان با تکالیفی مثل ارائهها یا امتحانهای شفاهی، پروژههای عملی و آزمونهای حضوری امکان تقلب را کاهش داد نه از این لحاظ که نظام آموزشی به وجه نظارتی خود افتخار کند و بگوید جلو تقلب را گرفتم از این لحاظ که تقلب امروز دانشجو، آینده خود و جامعهاش را تباه میکند.
این را هم باید تاکید کنم که دانشگاهها باید کارگاههایی برای آموزش دانشجویان و استادان در زمینه استفادهی مؤثر و اخلاقی از این ابزارها برگزار کنند.
آیا ابزارهای ضدتقلب و تشخیص متن هوش مصنوعی در ایران قابل استفاده هستند؟
بله، این ابزارها از نظر فنی قابل استفاده هستند، اما اتکای صرف به آنها نه ممکن و نه مطلوب است. چندین نکته در این زمینه وجود دارد. چون این ابزار بسیار در تقلب و بستن راهی که تشخیص بدهید متن تولید شده تقلبی است، مهارت دارند.
ابزارهای تشخیص متن تولیدشده با هوش مصنوعی صددرصد دقیق نیستند و نرخ خطای قابل زیادی دارند. این ابزارها در تشخیص متون فارسی ممکن است دقت کمتری داشته باشند. بگذارید دوباره تاکید کنم روی اینکه فناوری هوش مصنوعی بهسرعت در حال پیشرفت است و با هر نسخه جدیدتر، تشخیص محتوای تولیدی آنها دشوارتر میشود. بسیاری از این ابزارهای پیشرفته، تجاری هستند و استفاده از آنها برای تمام دانشگاهها ممکن است با محدودیتهای مالی یا فنی مواجه باشد. کار دانشگاه و استاد این نیست که مثل یک کارآگاه پی نشانههای تقلب بگردد. چون مهمتر از شناسایی تقلب، پیشگیری از آن است. سرمایهگذاری بر آموزش، فرهنگسازی و بازطراحی تکالیف، راهبردی پایدارتر از خرید ابزارهای تشخیص است.
از نظر شما اگر قرار باشد یک چارچوب اخلاقی یا قانونی برای استفاده دانشجویان از چتجیپیتی تعریف شود، مهمترین بند آن باید چه باشد؟
فکر میکنم مهمترین و محوریترین بند در هر چارچوب اخلاقی باید اصل «شفافیت و مسئولیتپذیری نهایی مؤلف» باشد. یعنی «دانشجو موظف است در تمام آثار علمی خود (اعم از تکالیف، مقالات و پایاننامه)، هرگونه استفاده از ابزارهای هوش مصنوعی مولد را به صورت شفاف اعلام کند. این اعلام باید شامل ذکر نام ابزار، نحوه استفاده و سهم آن در تولید اثر باشد. در هر حال، مسئولیت کامل صحت، اصالت و رعایت اخلاق علمی محتوای ارائهشده، بدون هیچ قید و شرطی، بر عهدهی دانشجو بهعنوان مؤلف انسانی اثر است.»
به این ترتیب، چنین دیدگاهی راه را برای استفاده سازنده از فناوری باز میگذارد، صداقت علمی را ترویج میدهد و مسئولیت را به روشنی به انسان بازمیگرداند. این اصل، سنگ بنای همزیستی هوشمندانه و اخلاقی میان انسان و هوش مصنوعی در فضای آکادمیک خواهد بود. چون اگر خود مولف نگوید، انرژی مصرف شده برای تشخیص بسیار زیاد و هزینهبر است.
در مجموع، ورود هوش مصنوعی به دانشگاهها، همانقدر که فرصتی برای تحول در آموزش است، تهدیدی جدی برای اصالت علمی نیز به شمار میرود.
انتهای پیام/