شناسهٔ خبر: 77023360 - سرویس اجتماعی
نسخه قابل چاپ منبع: روزنامه فرهیختگان | لینک خبر

سیاست‌گذاری آموزشی در عصر هوش مصنوعی

AI را تسهیل‌گر یادگیری بدانیم

این دغدغه امروز در نظام‌های آموزشی سراسر جهان مطرح است که آیا باید استفاده دانش‌آموزان و دانشجویان از هوش مصنوعی را محدود یا ممنوع کرد، یا اینکه بپذیریم هوش مصنوعی بخشی جدایی‌ناپذیر از واقعیت زندگی امروز است و لازم است به این بیندیشیم که چگونه می‌توان از آن به‌صورت هوشمندانه استفاده کرد.

صاحب‌خبر -

کاظم بنی‌هاشم،عضو هیئت‌علمی دانشگاه اوپن:این است که نظام آموزشی ما چگونه می‌تواند نسبت به استفاده از هوش مصنوعی رویکردی را اتخاذ کند. زمانی که گروهی از معلمان ریاضی با به‌کارگیری ماشین‌حساب در مدارس مخالفت می‌کردند و آن را اقدامی نادرست می‌دانستند، استدلال آن‌ها این بود که استفاده از ماشین‌حساب باعث تنبلی دانش‌آموزان می‌شود. با این حال، این نگرانی از نگاهی نادرست سرچشمه می‌گرفت؛ نگاهی که فناوری را جایگزین یادگیری تلقی می‌کرد، نه ابزاری برای تسهیل فرایند یادگیری. البته تا حدی می‌توان به این معلمان حق داد، چراکه احتمالاً آن نگاه پداگوژیک (آموزش‌شناسانه) که متخصصان حوزه آموزش دارند، در آن زمان برای همه معلمان وجود نداشت.
ما که در حوزه آموزش فعالیت می‌کنیم، بر این باوریم که دانش‌آموزان به‌جای صرف ساعت‌ها زمان برای انجام دستی محاسبات، باید به سطوح بالاتری از یادگیری هدایت شوند. منظور از این سطح بالاتر، درک این مسئله است که این فرمول‌ها در کجا و چگونه به کار می‌آیند و دانش‌آموزان چگونه می‌توانند در مواجهه با مسائل ریاضی‌گونه در زندگی واقعی، از آن‌ها استفاده کنند. از این منظر، توانایی به‌کارگیری و پیاده‌سازی فرمول‌ها اهمیت بیشتری نسبت به انجام صرف محاسبات دستی دارد.

جای حذف، دنبال چگونگی ادغام هوش مصنوعی در نظام آموزشی باشیم

به نظر من، این دغدغه امروز در نظام‌های آموزشی سراسر جهان مطرح است که آیا باید استفاده دانش‌آموزان و دانشجویان از هوش مصنوعی را محدود یا ممنوع کرد، یا اینکه بپذیریم هوش مصنوعی بخشی جدایی‌ناپذیر از واقعیت زندگی امروز است و لازم است به این بیندیشیم که چگونه می‌توان از آن به‌صورت هوشمندانه استفاده کرد. من که در این حوزه فعالیت می‌کنم، معتقدم ممنوعیت راه‌حل مناسبی نیست و رویکرد‌های محدودکننده نمی‌توانند فرزندان ما را برای آینده آماده کنند. در نتیجه، ضروری است به‌جای حذف، به دنبال چگونگی ادغام هوش مصنوعی در نظام آموزشی باشیم؛ آن هم ادغامی آگاهانه و هدفمند.
اما در‌عین‌حال لازم می‌دانم این نکته را هم به خودم و به همه یادآوری کنم که ما فعالان حوزه آموزش، به‌ویژه آموزش و فناوری‌های آموزشی، به دلیل مطالعه، تجربه کاری و نگاه حرفه‌ای که در این زمینه داریم، به‌خوبی از آثار مثبت فناوری در آموزش آگاه هستیم. با این حال، ضروری است این آگاهی را با نگاهی خنثی، منصفانه و واقع‌بینانه همراه کنیم و در ارزیابی نقش و اهمیت فناوری در آموزش دچار اغراق نشویم. به نظر من، توجه به این تعادل و پرهیز از بزرگ‌نمایی نقش فناوری، نکته‌ای کلیدی است که باید در فرایند‌های سیاست‌گذاری آموزشی مورد توجه جدی قرار گیرد.

محدودیت‌های مهم مدل‌های زبانی بزرگ

فکر می‌کنم در آموزش عالی، آنچه بیش از همه درباره آن صحبت می‌شود، موضوع مدل‌های زبانی بزرگ است. به این معنا که اگرچه هوش مصنوعی حوزه‌ای بسیار گسترده دارد - از ربات‌های مورد استفاده در کارخانه‌های ماشین‌سازی گرفته تا کاربرد آن‌ها در بیمارستان‌ها برای کمک به جراحی یا پیش‌بینی همه‌گیری‌ها - اما در حوزه آموزش، تمرکز اصلی ما بر این نوع خاص از هوش مصنوعی قرار می‌گیرد. دلیل این امر آن است که فعالیت‌های آموزشی عمدتاً متن‌محور هستند؛ کتاب می‌خوانیم، رساله و مقاله می‌نویسیم، بازخورد ارائه می‌دهیم و بخش عمده‌ای از تعاملات آموزشی ما بر پایه متن شکل می‌گیرد. به همین خاطر، بحث‌ها بیشتر معطوف به مدل‌های زبانی بزرگ است. در این چهارچوب، بسیار مهم است که بدانیم این مدل‌ها چه محدودیت‌هایی دارند، چه فرصت‌ها و چه ظرفیت‌هایی را در اختیار ما می‌گذارند. چنین شناختی به ما کمک می‌کند تا در استفاده از آن‌ها تصمیم‌هایی آگاهانه‌تر و عاقلانه‌تر بگیریم.
نکته بسیار مهم دیگر این است که بدانیم مدل‌های زبانی بزرگی مانند چت‌جی‌پی‌تی، فاقد فهم و آگاهی نسبت به محتوایی هستند که تولید می‌کنند. برای مثال، اگر از چت‌جی‌پی‌تی پرسیده شود «امروز حالت چطور است؟» و پاسخ دهد «حالم خوب است»، این پاسخ برای خود سیستم هیچ معنای درونی یا احساسی ندارد؛ بلکه صرفاً بر اساس الگو‌ها و دستورالعمل‌هایی است که در فرایند آموزش دریافت کرده و می‌تواند چنین پاسخی را تولید کند.
یکی دیگر از محدودیت‌های مهم این مدل‌ها که باید نسبت به آن آگاه باشیم، امکان ارائه اطلاعات نادرست است. دلیل این مسئله آن است که داده‌هایی که این مدل‌ها بر اساس آن‌ها آموزش دیده‌اند، لزوماً همیشه دقیق و صحیح نبوده‌اند. به همین خاطر، کاربر ناگزیر است همواره اطلاعات ارائه‌شده را بررسی و راستی‌آزمایی کند تا از درستی آن‌ها اطمینان یابد.
بنابراین، آگاهی از احتمال خطا در خروجی این مدل‌ها اهمیت زیادی دارد. این موضوع در حوزه آموزش یک چالش جدی ایجاد می‌کند، چراکه ما قصد داریم فرزندان و دانشجویان خود را بر پایه اطلاعاتی تربیت کنیم که بخشی از آن‌ها از طریق فناوری و ابزار‌های هوشمند در اختیارشان قرار می‌گیرد.
نکته مهم‌تر این است که این مدل‌ها گاهی اطلاعاتی را «می‌سازند»؛ پدیده‌ای که با عنوان توهم شناخته می‌شود. برای مثال، در برخی مواقع وقتی از مدل درخواست منبع یا رفرنس می‌شود، ارجاع‌هایی ارائه می‌کند که در واقع وجود خارجی ندارند.

لزوم هوشیاری نسبت به پیامد‌های روانی و اجتماعی AI

محدودیت مهم دیگر، مسئله سوگیری است. برای نمونه، اگر از مدل بخواهید داستانی را روایت کند که در آن فردی مرتکب جرم شده است، این احتمال وجود دارد که برای آن فرد نامی خاورمیانه‌ای یا اسلامی انتخاب کند، یا او را به‌عنوان فردی سیاه‌پوست معرفی کند. همچنین تعصبات جنسیتی نیز در خروجی‌ها دیده می‌شود؛ به‌عنوان مثال، اگر درباره پرستاران سؤال شود، اغلب آن‌ها به‌صورت زن معرفی می‌شوند. این نوع سوگیری‌ها مسئله‌ای جدی به شمار می‌آیند، چراکه ما نمی‌خواهیم فرزندانمان در فضایی رشد کنند که چنین سوگیری‌هایی به‌صورت ناآگاهانه بازتولید می‌شوند.
در ادامه نکاتی که پیش‌تر درباره نداشتن احساس و فقدان آگاهی این مدل‌ها نسبت به محتوای تولیدی‌شان مطرح کردم، می‌توان به یک نمونه فرهنگی اشاره کرد. فیلمی وجود دارد که دیدن آن را توصیه می‌کنم؛ در این فیلم، شخصیت اصلی وارد یک رابطه احساسی ناسالم با یک هوش مصنوعی می‌شود و نوعی وابستگی عاطفی نسبت به آن شکل می‌گیرد. این رابطه در نهایت به انزوای اجتماعی و بروز اختلالات روانی در فرد منجر می‌شود. این مثال به ما یادآوری می‌کند که لازم است در سیاست‌گذاری‌های آموزشی، نسبت به پیامد‌های روانی و اجتماعی استفاده از هوش مصنوعی آگاه و هوشیار باشیم.
به‌تازگی در انگلستان گزارش شد که یک نوجوان دست به خودکشی زد و ارتباط او با چت‌جی‌پی‌تی در تحریک این اقدام نقش داشت. گزارش‌ها نشان می‌دهند که تعاملات ما با هوش مصنوعی می‌تواند به شکل‌گیری روابط ناسالم عاطفی منجر شود. حال اگر این تجربه را به کودکان ۱۰ تا ۱۲ ساله تعمیم دهیم، می‌توان تصور کرد که چنین استفاده‌ای چه پیامد‌های روانی و اجتماعی خطرناکی برای آن‌ها به همراه دارد.
بنابراین، این مسئله در سیاست‌گذاری‌های اجتماعی اهمیت زیادی دارد و ما را به ضرورت داشتن سواد هوش مصنوعی آگاه می‌کند. لازم است این موضوع در نظام آموزشی به‌عنوان یک بحث حیاتی مطرح شود تا کاربران فناوری، به‌ویژه دانش‌آموزان، بتوانند به‌صورت آگاهانه، مسئولانه و اخلاقی از آن استفاده کنند.

هوش مصنوعی و چالش مالکیت معنوی اثر

می‌خواهم وارد مباحث جدی‌تر و مثال‌های عینی‌تر در زمینه سیاست‌گذاری شویم و یکی از این مسائل مهم مالکیت معنوی است. به‌عنوان نمونه، وقتی یک معلم، دانشجو یا دانش‌آموز از طریق چت‌جی‌پی‌تی محتوایی تولید می‌کند، این سؤال مطرح می‌شود که مالکیت این محتوا با چه کسی است؟
بر اساس شرایط و ضوابط چت‌جی‌پی‌تی، مالکیت محتوای تولیدشده با فردی است که آن را ایجاد کرده است. با این حال، ممکن است دو نفر دقیقاً همان پاسخ یا محتوای مشابه را دریافت کنند؛ در این صورت، موضوع مالکیت معنوی به چالش کشیده می‌شود و نیازمند بررسی است.
می‌خواهم چند مثال عملی و سیاست‌هایی که در دانشگاه «ماستریخت» در حال شکل‌گیری است را بیان کنم. بنده عضو کمیته هوش مصنوعی در آموزش دانشکده هستم و یکی از وظایف ما تدوین و پیشنهاد سیاست‌هایی است که برای دانش‌آموزان و معلمان قابل اجرا باشد.
بحثی که می‌خواهم مطرح کنم، مربوط به سیاست‌های آموزشی در زمینه استفاده از هوش مصنوعی است و محور آن صداقت تحصیلی است. به عبارت دیگر، ما باید به‌صورت شفاف به دانشجویان اعلام کنیم که در استفاده از هوش مصنوعی، باید بسیار صادق باشند و نمی‌توانند کاری که توسط هوش مصنوعی تولید شده است را به‌عنوان کار خود ارائه دهند.
در اینجا لازم است تفاوت بین سرقت ادبی و کلاهبرداری روشن شود. سرقت ادبی زمانی رخ می‌دهد که ما اثر فرد دیگری را بدون ذکر منبع استفاده کنیم، اما کلاهبرداری زمانی است که اثر فرد دیگر را به‌عنوان کار خود معرفی کنیم. بنابراین، وقتی کسی محتوای تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ارائه می‌دهد، این امر در زمره کلاهبرداری قرار می‌گیرد و می‌تواند پیامد‌های جدی آموزشی و اخلاقی داشته باشد.
بحث دیگر بر این است که ما باید آگاهانه و مانند سایر فناوری‌ها، هوش مصنوعی را به‌عنوان یک فرایند تسهیل‌گر یادگیری به کار بگیریم. به‌عنوان مثال، برای یادگیری یک مهارت جدید، بارش ایده یا انجام فعالیت‌های آموزشی مختلف، هوش مصنوعی می‌تواند ابزار کمکی مؤثری باشد.
علاوه بر این، ما تلاش می‌کنیم دانشجویان را نسبت به سوگیری و محدودیت‌های این سیستم‌ها آگاه کنیم تا بدانند خروجی مدل‌ها ممکن است سوگیری داشته باشد و این آگاهی آن‌ها را در استفاده مسئولانه یاری می‌کند.

اهمیت شفاف‌سازی استفاده از هوش مصنوعی در دانشگاه

یکی دیگر از سیاست‌های مهم، تصدیق یا شفاف‌سازی استفاده از هوش مصنوعی است. به این معنا که دانشجویان و معلمان باید اعلام کنند که چگونه از این فناوری استفاده کرده‌اند. به‌عنوان نمونه، معلمان می‌گویند چه نوع ابزار هوش مصنوعی به کار رفته، هدف از استفاده چه بوده، چه دستوراتی داده شده و آیا ملاحظات اخلاقی رعایت شده است یا خیر؛ مثلاً اطلاعات یا داده‌های شخصی افراد آپلود نشده باشد و رضایت آن‌ها اخذ شده باشد. این یک نمونه است از اینکه ما از دانشجویان می‌خواهیم شفاف باشند و توضیح دهند چگونه از هوش مصنوعی استفاده کرده‌اند.
بحث دیگر مربوط به مدیریت داده‌هاست، زیرا چه بخواهیم و چه نخواهیم، هوش مصنوعی به اطلاعاتی که آپلود می‌کنیم دسترسی دارد و آن‌ها را پردازش می‌کند. بنابراین باید مراقب باشیم هیچ داده شخصی را آپلود نکنیم و اگر مقاله یا کتابی که دارای حق نشر است را آپلود می‌کنیم، مسئولیت آن با ما خواهد بود و باید مطمئن باشیم اجازه کپی‌رایت را داریم.
بحث دیگری که در سطح جهانی مورد توجه است، تأثیرات اجتماعی و محیط‌زیستی هوش مصنوعی است. استفاده از این فناوری‌ها پیامد‌های محیطی و اجتماعی به همراه دارد؛ برای مثال، پردازش داده‌ها توسط موتور‌های هوش مصنوعی مصرف بالای آب دارد و منجر به تولید دی‌اکسیدکربن می‌شود. همچنین، دسترسی به نسخه‌های پولی این ابزار‌ها برای کشور‌های فقیر محدود است و این موضوع می‌تواند شکاف اجتماعی ایجاد کند. ما تلاش می‌کنیم دانشجویان را نسبت به این مسائل آگاه کنیم تا نگرشی منصفانه و مسئولانه نسبت به استفاده از هوش مصنوعی داشته باشند. در کنار کار‌هایی که باید انجام دهند، دانشجویان باید بدانند چه کار‌هایی را نباید انجام دهند. به‌عنوان مثال، نباید محتوای تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ارائه کنند و همیشه باید در نظر داشته باشند که خروجی هوش مصنوعی لزوماً درست نیست. توجه به این نکته و سوگیری‌های احتمالی مدل‌ها، از اهمیت بالایی برخوردار است. به‌طور مثال، آپلود کردن تکالیف دانش‌آموزان در سیستم‌های هوش مصنوعی نیازمند آگاهی از جنبه‌های اخلاقی این موضوع است. باید بدانیم آیا اجازه داریم این محتوا را آپلود کنیم، مالکیت آن با چه کسی است و آیا سیستم مورد استفاده از نظر امنیت و حفظ حریم خصوصی مطمئن است. این مباحث گاهی ساده انگاشته می‌شوند؛ اما در سطح سیاست‌گذاری، دانشگاه و تصمیم‌گیری‌های کلان، نیاز است که به‌صورت دقیق و جدی بررسی شوند.
در نهایت می‌توان نتیجه گرفت که استفاده از هوش مصنوعی مفید و ارزشمند است؛ اما باید به‌صورت آگاهانه انجام شود و کاربران نسبت به مسئولیت‌های اخلاقی و معنوی آن کاملاً آگاه باشند.

* متن پیش رو، ارائه کاظم بنی‌هاشم عضو هیئت‌علمی دانشگاه اوپن در پنل هوش مصنوعی و آینده آموزش عالی است که چندی پیش توسط مؤسسه پژوهش و برنامه‌ریزی آموزش عالی برگزار شد.