شناسهٔ خبر: 32369743 - سرویس بین‌الملل
نسخه قابل چاپ منبع: ایسکانیوز | لینک خبر

نگرانی های تقلید رفتارهای انسانی توسط هوش مصنوعی

یک محقق آمریکایی با انتشار مقاله ای تاکید کرد که در صورت عدم ایجاد محدودیت در توسعه هوش مصنوعی، در آینده شاهد مشکلات زیادی در خصوص تقلید رفتارهای انسانی توسط این فناوری و فریب میلیون ها انسان در سطح جهان خواهیم بود.

صاحب‌خبر -

به گزارش گروه علم و فناوری ایسکانیوز، پایگاه اینترنتی آمریکایی «ساینس الرت» مقاله ای از « آنا سانتوز روتچمان » استاد قوانین بخش سلامتی و بهداشت دانشگاه « سنت لوئیس » آمریکا منتشر کرد که در آن به رشد بی سابقه توان الگوریتم های هوش مصنوعی در دهه های اخیر پرداخته شده است؛ تا جایی که هوش مصنوعی هم اکنون به تدوین قطعه های موسیقی و انجام امور ابتکاری مبادرت می ورزد و ظاهراً این الگوریتم ها حاکی از قدرت هوش مصنوعی برای انجام کارهایی فراتر از خواندن متون است.

در این مقاله می خوانیم: پژوهشگران با انجام یک تحقیق برخی خطرات هوش مصنوعی را گوشزد کرده اند. می توان گفت قدرت الگوریتم های پیشرفته یکی از نرم افزارهای گوگل برای تلفیق نت های موسیقی با موسیقی یوهان سپاستین باخ برای تولید یک قطعه موسیقی جدید نگرانی هایی را در خصوص آینده هوش مصنوعی به وجود آورده است.

رایانه ها امروزه می توانند برخی توانایی های ابتکاری بشر را شبیه سازی کنند، مساله ای که امری وحشت آور و بسیار شک برانگیز محسوب می شود.

لازم به ذکر است گوگل برنامه موسیقی خود را با تحلیل 306 قطعه موسیقی از سپاستین باخ آهنگ ساز آلمانی تدوین کرده است و بر همین اساس عمل می نماید و می تواند با ملاحظات و موارد مدنظر کاربر هماهنگ شود.

«باخ» نرم افزاری جدید است اما فناوری استفاده آن از سال های دور وجود داشته است که همان الگوریتم هایی است که برای شناسایی الگوها و اتخاذ تصمیمات پس از مشاهده مجموعه ای از احتمالات طراحی شده است.

برخی از این الگوریتم ها پیچیده است به طوری که بیشتر مردم از فهم چگونگی تصمیم گیری آنها عاجزند.

اما در مقابل نمی توان گفت الگوریتم های هوش مصنوعی کاملاً دقیق هستند چرا که بسیاری از آنها به داده هایی اتکا دارند که تمام گروه های جامعه را نمایندگی نمی کند و همین مساله آنها را در برابر بشر ناتوان می نماید.

مشخص نیست در صورت ارتکاب خطای هوش مصنوعی و ایجاد هر گونه مشکل چه کسی مسئولیت آن را بر عهده می گیرد. این فناوری ها هنوز راه زیادی برای رفتن دارند تا بتوانند مانند بشر بنویسند یا همانند آن سخن بگویند.

به عنوان مثال طراحان برنامه «لایربرد» صدای یک گفتگوی خیالی میان باراک اوباما، دونالد ترامپ و هیلاری کیلینتون را به شکل بسیار واقعی شبیه سازی کرده اند.

در همین راستا شرکت «اپن ای آی» نرم افزاری طراحی کرده است که می تواند شبیه انسان بنویسد و با توجه به واقعی بودن نوشتار این نرم افزار این شرکت تصمیم گرفته است از عرضه آن به عموم خودداری نماید.

هوش مصنوعی اجازه می دهد شما کلیپ های ویدئویی یا تصاویر بسیاری تولید کنید به طوری که جردن بیل بازیگر و کارگردان سینما با این فناوری یک کلیپ ویدئویی تولید کرد که در آن باراک اوباما رئیس جمهور سابق آمریکا چیزهایی می گوید که در جهان خارج هرگز بر زبان جاری نکرده است و همین مساله سوالات زیادی را در خصوص خطرات این گونه فناوری ها به دنبال داشته است.

در ابتدای سال 2019 تصاویری از الکسندریا اوکاسیو کورتز سیاستمدار آمریکایی به صورت برهنه منتشر شد که پس از آن مشخص گردید این تصاویر تقلبی بوده اند و با هدف شکست وی در جریان انتخابات ساخته و منتشر شده است. به همین دلیل خبرگزاری های بزرگ جهان مانند روییترز برای آموزش خبرنگاران و روزنامه نگاران خود برای تشخیص این تصاویر جعلی اقدام کرده اند.

آنچه واقعاً باعث نگرانی است عدم قدرت کاربران برای تشخیص فریب هایی است که هوش مصنوعی می تواند آنها را تحقق بخشد به ویژه آنکه این گونه توانایی ها به سرعت در حال رشد بوده، روز به روز پیچیده تر شده و توسعه بیشتری می یابد. به عنوان مثال برخی نرم افزارهای هوش مصنوعی از توانایی لازم برای ساخت چهره و اثر انگشت تقلبی برخوردار است که می توان از آنها در موارد مختلف سوء استفاده کرد.

هم اکنون این الگوریتم ها خطاهای زیادی مرتکب می شوند که باید نسبت به آنها هوشیار بوده و با دقت عملکرد آنها را بررسی نماییم، چنانچه پیش از این نرم افزار «باخ» در تلفیق موسیقی دچار برخی اشتباهات شده بوده که هر کارشناس موسیقی قادر به تشخیص و کشف آن است.

به عنوان مثال این نرم افزار اجازه ایجاد فواصل موسیقی را می دهد در حالی که خود باخ از این کار اجتناب می کرده است و همین مساله باعث ایجاد شباهت هایی میان قطعه های جدید تولید شده و قطعه های این آهنگ ساز آلمانی شده است.

نرم افزار گوگل قواعد موسیقی را حتی در سطح ایجاد هماهنگی میان ملودی ها نیز تغییر داده است و نرم افزار نوشتاری «اوپن ای آی» نیز جملات نامفهومی مانند «شراره های آتشی که زیر آب شعله ور می شود» تولید می کند که اینها حاکی از خطاپذیری این فناوری و بدون مرز بودن ایجاد تغییرات در آنها است. با ادامه ابتکارات طراحان و توسعه دهندگان و تا زمانی که توسعه و آموزش الگوریتم های هوش مصنوعی ادامه پیدا کند خطاهای این نرم افزارها نیز کاهش می یابد.

بهبود فناوری های یادگیری ماشین دارای فواید زیادی است که از جمله آنها فراهم شدن خدمات بهداشتی مناسب تر است ولی در مقابل نمی توان این واقعیت را انکار کرد که آزادی پژوهشگران در توسعه این الگوریتم ها به معنای به وجود آمدن خطراتی است که راه را برای ایجاد فریب ها و مشکلات اجتماعی پشرفته تر باز می کند.

محدود کردن تحقیقات در زمینه هوش مصنوعی می تواند پیشرفت به سوی آینده ای مجهول را متوقف نماید چرا که عدم محدویت این فناوری پیشرفته در توسعه آن بدون انجام هیچ گونه نظارتی تنها به استفاده از یک قطعه موسیقی ناملایم منتهی نمی شود بلکه گستره آن شامل فریب میلیون های انسان می گردد.

انتهای پیام/

184 / 159

برچسب‌ها:

نظر شما