او میافزاید که به دلیل این کمبود اطلاعات، احتمالاً در آینده نزدیک راهی قابل اعتماد برای آزمایش خودآگاهی ماشینها در دسترس نخواهد بود.
به گزارش ایتنا و به نقل از SciTechDaily، دکتر تام مککللند، فیلسوفی از دپارتمان تاریخ و فلسفه علوم دانشگاه کمبریج، بر این باور است که تنها رویکرد قابل توجیه در این زمینه «ناآگاهی» است؛ یعنی به طور قطع نمیتوانیم بگوییم که هوش مصنوعی خودآگاه است یا خیر، و این ممکن است برای مدت طولانی، حتی به طور نامحدود، باقی بماند.
وی تأکید میکند که حتی اگر هوش مصنوعی به خودآگاهی دست یابد، این خودآگاهی به تنهایی نمیتواند آن را از نظر اخلاقی مهم کند.
در واقع، «خودآگاهی» به معنای آگاهی از محیط و احساسات میتواند حالت خنثی باشد و تنها وقتی به یک نوع خاص از خودآگاهی به نام «حسگرایی» (sentience) برسیم، است که مفهوم رنج یا لذت مطرح میشود.
این نوع از خودآگاهی است که باعث میشود موجودی توانایی رنج کشیدن یا لذت بردن داشته باشد، و در این مرحله است که ملاحظات اخلاقی اهمیت پیدا میکند.
مککللند در این زمینه میگوید: «حتی اگر به طور تصادفی هوش مصنوعی خودآگاه بسازیم، بعید است که نوع خودآگاهی باشد که ما نیاز داریم از آن نگرانی داشته باشیم».
به عنوان مثال، او میگوید که ماشینهای خودران که قادر به درک جادههای پیش روی خود هستند، در ظاهر مسئلهای مهم به نظر میرسند، اما از نظر اخلاقی اهمیت ندارند.
با این حال، اگر این ماشینها شروع به داشتن واکنشهای احساسی نسبت به مقاصد خود کنند، این موضوع کاملاً متفاوت خواهد بود.
مککللند همچنین به این نکته اشاره میکند که شرکتهای بزرگ در حال سرمایهگذاریهای کلان برای دستیابی به هوش مصنوعی عمومی (AGI) هستند، سیستمهایی که طراحی شدهاند تا همانند انسانها تفکر و استدلال کنند.
برخی بر این باورند که هوش مصنوعی خودآگاه به زودی در دسترس خواهد بود و در حال حاضر بحثهایی در مورد چگونگی تنظیم و نظارت بر این خودآگاهی در میان پژوهشگران و دولتها در جریان است.
اما مککللند معتقد است که مشکل اصلی این است که ما هنوز نمیدانیم خودآگاهی در ابتدا از کجا ناشی میشود و چه چیزی آن را توضیح میدهد، بنابراین هیچ مبنای علمی قوی برای آزمایش خودآگاهی در هوش مصنوعی نداریم.
او میگوید: «اگر به طور تصادفی هوش مصنوعی خودآگاه بسازیم، باید مراقب باشیم که آسیبی به آن وارد نشود، اما در عین حال نباید یک دستگاه که به طور واضح خودآگاه نیست را به عنوان موجودی خودآگاه در نظر بگیریم، در حالی که موجودات خودآگاه واقعی در دنیای ما هستند که به مقیاس وسیعی مورد آزار قرار میگیرند».
در بحثهای مربوط به خودآگاهی مصنوعی، دو گروه اصلی وجود دارند. طرفداران این موضوع معتقدند که اگر یک سیستم هوش مصنوعی بتواند معماری نرمافزاری خودآگاهی را تقلید کند، پس این سیستم خودآگاه است، حتی اگر بر روی تراشههای سیلیکونی به جای بافت مغزی اجرا شود.
در مقابل، شکاکان بر این باورند که خودآگاهی به فرآیندهای بیولوژیکی خاص در یک «موجود ارگانیک» وابسته است و حتی اگر ساختار خودآگاهی بتواند بر روی سیلیکون بازسازی شود، تنها یک شبیهسازی خواهد بود که بدون اینکه هوش مصنوعی به آگاهی برسد، اجرا خواهد شد.
او همچنین به این نکته اشاره میکند که ما هنوز توضیح عمیقی از خودآگاهی نداریم. «هیچ شواهدی وجود ندارد که نشان دهد خودآگاهی میتواند با ساختار محاسباتی مناسب ایجاد شود، یا اینکه خودآگاهی اساساً بیولوژیکی است».
وی در پایان تأکید دارد که هیچ نشانهای از شواهد کافی در این زمینه در آینده نزدیک وجود ندارد و بهترین سناریو این است که ما باید یک انقلاب فکری برای توسعه آزمایشهای قابل اعتماد خودآگاهی داشته باشیم.∎