شناسهٔ خبر: 75323768 - سرویس اجتماعی
نسخه قابل چاپ منبع: آنا | لینک خبر

در گفت‌و‌گو با خبرگزاری آنا:

آنچه دانشگاهیان باید در استفاده از هوش مصنوعی بدانند

با ورود هوش مصنوعی به فضای آموزش عالی، پرسش‌های تازه‌ای درباره اصالت علمی، تفکر مستقل و مرزهای اخلاقی مطرح شده‌اند. یک استاد دانشگاه در این گفت‌و‌گو، از ضرورت شفاف‌سازی استفاده از این فناوری و بازتعریف نقش استاد و دانشجو در عصر الگوریتم‌ها سخن گفت.

صاحب‌خبر -

به گزارش خبرگزاری آنا، تصور کنید در قرون وسطی، وقتی گوتنبرگ نخستین دستگاه چاپ را راه‌اندازی کرد، هیچ‌کس نمی‌دانست این اختراع تا چه اندازه ساختار دانش و قدرت را دگرگون خواهد کرد. یا در دهه ۹۰ میلادی، زمانی که اینترنت به دانشگاه‌ها پا گذاشت، کمتر کسی حدس می‌زد کلاس‌های درس روزی مرز‌های جغرافیا را پشت سر بگذارند. امروز، تاریخ دوباره تکرار می‌شود؛ این بار با نام «هوش مصنوعی». ابزارهایی، چون ChatGPT با سرعتی خیره‌کننده وارد زندگی علمی دانشجویان و استادان شده‌اند و پرسشی بزرگ را پیش روی نظام آموزشی ایران و جهان قرار داده‌اند: آیا این فناوری برای آموزش و دانشگاه رقیب خطرناکی نیست؟

برای واکاوی این موضوع، با حسین امامی، یکی از استادان رشته ارتباطات و متخصص هوش مصنوعی گفت‌و‌گو کرده‌ایم؛ استادی که باور دارد استفاده از هوش مصنوعی نباید «یک راز و محرمانه» باشد و استاد هم نباید به دنبال این باشد که متن با هوش مصنوعی نوشته شده یا خیر.

به‌طور کلی نگاه شما به استفاده از هوش مصنوعی در آموزش عالی چیست؟

هوش مصنوعی فقط یک ابزار جدید نیست، بلکه یک انقلاب ساختاری در نحوه تولید، انتقال و جذب دانش به شمار می‌رود. ما در آستانه تحولی هستیم که شبیه به ظهور چاپخانه در قرون وسطی یا رشد اینترنت در دهه ۹۰ است. هوش مصنوعی در آموزش عالی می‌تواند به عنوان دستیار هوشمند برای دانشجو و استاد عمل کند. البته کلید موفقیت، برقراری تعادل بین سرکوب و استفاده بی‌رویه‌سازی از آن است.

فکر می‌کنید ChatGPT بیشتر به دانشجو‌ها کمک می‌کند یا می‌تواند باعث تنبلی ذهنی آنها شود؟ آیا این فناوری را فرصت می‌بینید یا تهدید برای نظام آموزشی ایران؟

این سوال، مثل پرسیدن این است که آیا خودرو تهدیدی برای پیاده‌روی است؟ پاسخ ما بستگی به نحوه استفاده دارد. ChatGPT می‌تواند یک مربی شخصی باشد که به دانشجو کمک می‌کند مفاهیم را عمیق‌تر بفهمد، سوالاتش را تحلیل کند و حتی اشتباهاتش را تشخیص دهد. اما اگر به جای یادگیری، از آن برای انجام تکالیف بدون فکر استفاده شود، قطعا مفید نیست. بنابراین، این فناوری خنثی است. نه فرصت است، نه تهدید. بلکه آینده‌ای است که باید آن را طراحی کنیم. اگر نظام آموزشی ایران از این فرصت غافل شود، خود را از جهان دانش و نوآوری دور خواهد کرد.

استفاده از هوش مصنوعی نباید «یک راز و محرمانه» باشد

دانشجویان چطور می‌توانند از ابزار‌هایی مثل ChatGPT برای یادگیری بهتر و سریع‌تر استفاده کنند؟

اولین قدم، تغییر نگرش است: ChatGPT نباید جایگزین تفکر باشد، بلکه باید محرک تفکر باشد. مثلاً: به جای اینکه بپرسید جواب این سوال چیه؟ بپرسید: این مفهوم را به زبان ساده توضیح بده و یک مثال واقعی بزن. از آن برای ارزیابی خود استفاده کنید: آیا استدلال من در این مقاله منطقی است؟ از آن برای ساختاردهی به افکار خود کمک بگیرید. مثلا به ChatGPT بگویید که این موضوع را به چهار بخش تقسیم کن و هر بخش را با یک سوال کلیدی شروع کن.

به بیان ساده، دانشجو باید این ابزار را «آیینه‌ای برای اندیشه خود» ببیند، نه قلمی برای نوشتن تکلیف آماده.

برخی دانشجویان از ChatGPT برای نوشتن کامل تکالیف و حتی پایان‌نامه‌ها استفاده می‌کنند. این مسئله چه آسیبی به کیفیت علمی وارد می‌کند؟

استفاده از هوش مصنوعی برای بررسی پیشینه تحقیق، ساختاردهی به افکار، تشخیص نقاط ضعف و استدلال، ترجمه و بازنویسی برای شفافیت، اشکالی ندارد، اما نوشتن کل پایان‌نامه با آن، دزدی فکری است. اینجا تولید دانشی صورت نمی‌گیرد، بلکه تولید متن رقم می‌خورد. استفاده از هوش مصنوعی برای نوشتن کامل تکالیف، مقالات یا پایان‌نامه‌ها بدون هیچ نوع بازآفرینی، تحلیل یا تفسیر شخصی قطعاً آسیب‌زننده است و می‌تواند پژوهشگر آینده را از توان تحلیل تهی کند.

دانشگاه‌ها چطور می‌توانند بین استفاده آموزشی و سوءاستفاده مرزگذاری کنند؟

دانشگاه‌ها باید سیاست روشن تدوین کنند. یعنی کدام موارد مجاز و کدام غیرمجاز است باید اعلام شود. مثلا بگویند استفاده برای ایده‌پردازی، خلاصه‌سازی و تمرین مجاز است؛ استفاده برای تولید متن نهاییِ بدون نقد و تجربه شخصی، تخلف علمی محسوب می‌شود. پس مرزگذاری نباید فقط با سیستم‌های تقلب‌یابی انجام شود بلکه باید با بازتعریف اهداف آموزشی شروع شود.

بهترین ضدتقلب، ذهن پرسشگر استاد است، نه ابزارهای ماشینی

آیا ابزار‌های ضدتقلب و تشخیص متن هوش مصنوعی در ایران قابل استفاده هستند؟

این ابزار‌ها وجود دارند، اما کیفیت و دقتشان هنوز محل بحث است. همان‌طور که تجربه اروپا نشان داده، هیچ ابزاری ۱۰۰ درصد مطمئن نیست. اما نکته مهم این است: اعتماد کردن فقط به این ابزارها، مثل این است که برای جلوگیری از سرقت، فقط از دوربین مداربسته استفاده کنیم در حالی که نیاز به آموزش درست داریم. بهترین ضدتقلب، ذهن پرسشگر استاد و گفت‌وگوی مستقیم با دانشجو است.

از نظر شما اگر قرار باشد یک چارچوب اخلاقی یا قانونی برای استفاده دانشجویان از ChatGPT تعریف شود، مهم‌ترین بند آن باید چه باشد؟

 باید بندی باشد که هم توصیه اخلاقی و هم قانونی را باهم داشته باشد. اینکه دانشجو موظف است هر جا از هوش مصنوعی استفاده کرده، آن را شفاف اعلام کند و پاسخ‌ها را با تفکر انتقادی بررسی کند.

در هر صورت وارد عصری شده‌ایم که انسان و هوش مصنوعی باید مسالمت‌آمیز در کنار یکدیگر زندگی کنند. پس لازم است که هم صداقت علمی را پاس بداریم. استفاده از هوش مصنوعی نباید «یک راز و محرمانه» باشد و استاد هم نباید به دنبال این باشد که متن با هوش مصنوعی نوشته شده یا خیر؟ بلکه باید به این پاسخ برسد که چگونه دانشجو، به درک و استدلالی که در متن نوشته، رسیده است.

انتهای پیام/