شناسهٔ خبر: 47084475 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

آنا بررسی می‌کند؛

تلاش دانشمندان برای بدنام نشدن فناوری/ هوش مصنوعی سرانجام اخلاق‌مدار می‌شود؟

با وجود شباهت‌های فراوان هوش مصنوعی با ذهن بشر و پیشی گرفتن این فناوری از منظر برخی تست‌های هوش از ذهن انسان، چیزی که در نهایت هوش مصنوعی لقب می‌گیرد در حقیقت از مقادیر زیادی منابع طبیعی، سوخت، انرژی و نیروی خودمان ساخته می‌شود

صاحب‌خبر -

به گزارش خبرنگار گروه علم و فناوری خبرگزاری آنا، هوش مصنوعی در ساده‌ترین تعریف ممکن به سیستم‌هایی گفته می‌شود که قادر هستند واکنش‌هایی مشابه رفتارهای هوشمند انسانی از خود بروز دهند. از جمله این واکنش‌ها می‌توان به درک شرایط پیچیده، شبیه‌سازی فرایندهای تفکری و شیوه‌های استدلالی انسانی و پاسخ به آن‌ها، یادگیری و توانایی کسب دانش و استدلال برای حل مسایل را مورد اشاره قرار داد.  

با وجود شباهت‌های فراوان هوش مصنوعی با ذهن بشر و پیشی گرفتن این فناوری از منظر برخی تست‌های هوش از ذهن انسان، چیزی که در نهایت هوش مصنوعی لقب می‌گیرد در حقیقت از مقادیر زیادی منابع طبیعی، سوخت، انرژی و نیروی خودمان ساخته می‌شود. پس نباید فراموش کرد هوش مصنوعی تنها می‌کوشد عملکردی مشابه هوش انسانی از خود نشان دهد وگرنه ابداً از لحاظ ساختاری دارای چیزی شبیه به هوش انسانی نیست.

هوش مصنوعی به طریقی که امروز آن را می‌شناسیم بدون کلان‌داده و حجم گسترده اطلاعات قادر به انجام کاری نیست و از منطق آماری نیز کاملاً از روش متفاوتی برای معناسازی استفاده می‌کند. از همان ابتدا که هوش مصنوعی در سال ۱۹۵۶ مطرح شد پژوهشگران این اشتباه وحشتناک را انجام دادند که ذهن‌ها مانند کامپیوتر هستند و بالعکس.

تلاش دانشمندان برای بدنام نشدن فناوری/ هوش مصنوعی سرانجام اخلاق‌مدار می‌شود؟

هوش مصنوعی و فقدان اخلاق

هوش مصنوعی برای چند دهه بسیار مورد توجه پژوهشگران قرار گرفت اما سرعت رشد پایین آن موجب شد با ظهور اینترنت برای مدتی از کانون توجه خارج شود اما از ابتدای دهه ۲۰۱۰ پس از رونق گرفتن مبحث یادگیری ماشین که تکنیکی جدیدی محسوب می‌شد(و وجود کلان داده‌ها و رایانش ابری به آن معنا بخشیده بود)، وجه تازه‌ای از این فناوری مطرح شد. سرعت پیشرفت این فناوری در دهه اخیر به گونه‌ای بوده است که گویی قرار است غیبت چند دهه‌ای آن را جبران کند. برخی از سیستم‌های یادگیری ماشین با داده‌هایی که عجولانه به دست آمده‌ ساخته شده‌اند که این مسئله می‌تواند باعث بروز مشکلاتی مانند خدمات تشخیص چهره شود که این خطاهای در مورد اقلیت‌ها بیشتر خود را نشان می‌دهد.

شیوه کار به این صورت است که با حجم عظیم داده می‌توان الگوهای مختلف(هر چقدر هم که می‌خواهد باشد) را شکل‌دهی کرد و آنها را براساس شیوه‌ای که ما آن را منطقی یا پسندیده می‌پنداریم درآورد. اما بذر مشکل داده‌ها در دهه هشتاد میلادی کاشته شد، زمانی که استفاده از مجموعه داده‌ها بدون آگاهی دقیق از آنچه در داخل آن بود یا نگرانی در مورد مسائلی همچون حفظ حریم خصوصی رایج شد. اشتهای ماشین‌ها برای داده سیری‌ناپذیر است و اکنون داده را فقط به عنوان ماده «خامی» می‌پندارند که در هزاران پروژه مورد استفاده مجدد قرار خواهد گرفت‌.

تا امروز که در سال ۲۰۲۱ به سر می‌بریم، هنوز هیچ استانداردی در سطح صنعت وجود ندارد که بتواند مشخص کند که انواع داده‌ها در مجموعه‌های آموزشی(برای یادگیری ماشین)، نحوه به دست آوردن آنها یا حریم شخصی مرتبط با نگهداری بالقوه آنها باید چگونه باشد.

تشخیص احساسات روبات

ریشه‌های نرم‌افزار «تشخیص احساسات» را در تحقیقاتی که بودجه آن را وزارت دفاع در دهه ۱۹۶۰ تأمین کرده است می‌توان یافت. پنتاگون در دهه شصت پروژه‌های متعددی را در حوزه علوم شناختی کلید زد که میوه برخی از این فعالیت‌ها را امروز شاهدیم. بررسی‌های اخیر که طی آن بیش از هزار مقاله تحقیقاتی  مرور شده است نشان می‌دهد هیچ مدرکی وجود ندارد که نشان دهد می‌توان «احساسات فرد» را به طور صددرصدی از چهره او استنباط کرد.

«تشخیص احساس» توسط هوش مصنوعی بیانگر یکی از رویاهای بشر است که براساس آن روزی فناوری سرانجام به سؤالاتی که درباره طبیعت انسان داریم، پاسخ خواهد داد. این ایده در رشته روانشناسی بسیار مورد مناقشه بوده و باعث گرایش به یادگیری ماشینی شده است زیرا قبل از هر کسی روانشناسان، ‌ یادگیری ماشین را ابزار متناسب با نظریه‌های خود قلمداد کردند. ثبت چهره افراد و مرتبط کردن آن با حالات احساسی ساده و از پیش‌تعریف‌شده که از یادگیری ماشین قابل رمزگشایی است از نظر منطقی نمی‌تواند صحیح باشد. اگر زمینه‌های فرهنگی و اعتقادی را کنار بگذارید، ده‌ها عامل مختلف می‌تواند باعث شود نوع نگاه و احساس خود را تغییر دهید.

تلاش دانشمندان برای بدنام نشدن فناوری/ هوش مصنوعی سرانجام اخلاق‌مدار می‌شود؟

اگر مشکل تنها تا بدین‌جا بود ایرادی نداشت. اما این نقطه تازه شروعی برای آغازبه‌کار یک حلقه بازخوردی است. اگر ابزارهای تشخیص احساسات وجود داشته باشد(برای مثال دروغ‌سنج)، مردم خیلی ساده می‌گویند ما می‌خواهیم از آن در دادگاه‌ها استفاده کنیم تا دزد واقعی مشخص شود.  اخیراً در برخی کشورهای غربی به بهانه همه‌گیری به منظور استفاده از تشخیص احساسات در کودکان از ابزارهای هوش مصنوعی استفاده می‌کنند.

 این ابزار می‌تواند ما را به گذشته و به کارگیری فرنولوژی برگرداند زمانی که اعتقاد بر این بود که می‌توان شخصیت را از صورت و شکل جمجمه تشخیص داد.  فرنولوژی که امروز به عنوان شبه‌علم خوانده می‌شود، رشته‌ای بود که طی آن تلاش می‌شد از روی ویژگی‌های چهره و جمجمه فسادپذیری و میل به مجرم بودن افراد را تشخیص داد! به کارگیری فرنولوژی در اواخر عصر ویکتوریا موجب شد مردم بی‌گناه به دلیل اینکه اجزای چهره‌شان شبیه جنایتکاران بود به عنوان مورد مشکوک شناخته شوند.

تا همین حالا ثابت شده است پیشرفت افسارگسیختهدر حوزه فناوری و رویکردهای مهندسی و ریاضیاتی منجر به سؤگیری فناوری شده است. ادغام این سیستم‌ها با نهادهای اجتماعی پیچیده و پر خطر مانند عدالت کیفری، آموزش و مراقبت‌های بهداشتی می‌تواند نگران‌کننده باشد.  

انتهای پیام/۴۱۶۰

نظر شما