شناسهٔ خبر: 67982889 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: روزنامه شرق | لینک خبر

هوش مصنوعی و بیم و امیدهای انسان هوشمند و ترسان

راه‌رفتن روی لبه تیغ

فناوری و به‌ویژه هوش مصنوعی، می‌تواند مانند یک واحه در بیابان باشد و عطش ما را برای دانش، خروجی، بهره‌وری یا قدرت سیراب کند. این در نهایت سرابی از خلقت خودمان است.

صاحب‌خبر -

مریم مرامی-کارشناس ارشد علوم شناختی: فناوری و به‌ویژه هوش مصنوعی، می‌تواند مانند یک واحه در بیابان باشد و عطش ما را برای دانش، خروجی، بهره‌وری یا قدرت سیراب کند. این در نهایت سرابی از خلقت خودمان است. حتی نام این فناوری را مصنوعی گذاشتیم و هنوز بسیاری از ما صرفا اولین خروجی را به عنوان حقیقت می‌پذیریم. اما چه چیزی واقعی است و ما چه چیزی را نمی‌بینیم؟ در روان‌شناسی، این گرایش از مفهومی به نام خطوط خیالی گرفته می‌شود. ذهن ما با اطمینان، شکاف‌های اطلاعاتی را پر می‌کند و معمولا به ما کمک می‌کند نتیجه‌گیری کنیم. گاهی مغز صرفا از اطلاعات محدودی برای ایجاد یک تصویر بزرگ‌تر استفاده می‌کند. استنباط اطلاعات به انسان‌ها کمک می‌کند تا سریع یاد بگیرند و با آن سازگار شوند، ولی ما را در خطر نتیجه‌گیری سریع قرار می‌دهد، همان‌طور که اغلب در مورد اخبار جعلی یا رسانه‌های جعلی عمیقا اتفاق می‌افتد. در بحبوحه انقلاب هوش مصنوعی، توانایی تشخیص واقعی‌بودن در مقابل مصنوعی هرگز مهم‌تر از این نبوده است. ازدست‌دادن علاقه به محتوای تولیدشده توسط هوش مصنوعی می‌تواند ناشی از چندین عامل روانی باشد. ازجمله آنها، پدیده سراب است. در ابتدا، ما مجذوب امکانات هوش مصنوعی بودیم، اما با گذشت زمان، این علاقه در واقع کمتر از انتظارات ما بود. پدیده سراب که به شکاف بین انتظارات و واقعیت اشاره دارد، شبیه شکاف بین هیاهو و عملکرد واقعی است، هرچند هوش مصنوعی به گونه‌ای ترویج می‌شود که گویی جایگزین مشاغل انسانی می‌شود یا درک و خلاقیت در سطح انسانی دارد. دراصل، این فناوری‌ها هنوز در مراحل ابتدایی خود هستند و مردم اغلب به دنبال احساسات یا تجربیات انسانی در داستان‌گویی یا آثار هنری می‌گردند و محتوای ایجادشده توسط هوش مصنوعی فاقد این ارتباط انسانی است و سطح ارتباط عاطفی یکسانی را برای مخاطب فراهم نمی‌کند. به همین دلیل، علاقه کاهش می‌یابد و اشتیاق اولیه به مرور زمان به ارزیابی واقع‌بینانه تبدیل می‌شود. مردم از دانشمندان انتظار دانش عمیق و بینش در مورد مسائل پیچیده دارند. مهم نیست که چقدر هوش مصنوعی پیشرفته است، در حال حاضر تقلید یا جایگزینی کامل این عمق فکری انسان، دشوار است. علاوه بر این، گفت‌وگوی دانشگاهی می‌تواند بستری برای ارتباط دوطرفه و تفکر عمیق باشد. هوش مصنوعی می‌تواند مکالمات را براساس اسکریپت‌ها یا الگوریتم‌ها ایجاد کند، اما توانایی آن برای ثبت جزئیات و عمق مکالمات آکادمیک واقعی، محدود است. پدیده سراب مرتبط با هوش مصنوعی، تعامل پیچیده بین پیشرفت سریع فناوری و انتظارات عمومی را نشان می‌دهد. این مهم است که پتانسیل و محدودیت‌های هوش مصنوعی را درک کنیم و انتظارات واقع‌بینانه را تعیین کنیم. فناوری دائما در حال پیشرفت است، اما این فرایند ساده نیست و انتظارات و تصورات ما باید بر این اساس تغییر کند. آینده هوش مصنوعی همچنان روشن است، اما مسیر ممکن است پیچیده‌تر و چالش‌برانگیزتر از آن چیزی باشد که ما انتظار داریم.

 

 سراب القایی

فیزیک‌دان نابغه، «استیون هاوکینگ» هشدار داده بود: توسعه هوش مصنوعی می‌تواند به پایان بشریت منجر شود. بله، نگرانی‌های زیادی وجود دارد که هوش مصنوعی می‌تواند توانایی‌های بسیار بیشتری نسبت به آنچه مردم تصور می‌کنند نشان دهد و اینکه میزان پیشرفت به صورت تصاعدی است. تعداد بی‌شماری از رهبران فناوری، خواستار توقف تحقیقات در زمینه هوش مصنوعی شدند تا زمانی که اطلاعات بیشتری در مورد خطرات بالقوه فناوری هوش مصنوعی مشخص شود. آنها نامه‌ای را در مورد خطرات عمیق برای جامعه و بشریت امضا و ابراز نگرانی کردند و گفتند: ما باید بسیار مراقب باشیم. هرچند وعده مزایای عظیمی که هوش مصنوعی برای طیف گسترده‌ای از بخش‌های صنعت، اقتصاد، آموزش، علم، کشاورزی، پزشکی و تحقیقات به ارمغان می‌آورد را نمی‌توان نادیده گرفت. با این حال، هشدار در مورد پیامدهای ناخواسته فناوری‌های مخرب به سرعت در حال افزایش است. توانایی‌های اضطراری که اغلب به عنوان قابلیت‌های نوظهور یا ویژگی‌های نوظهور شناخته می‌شوند، یکی از حوزه‌های مورد علاقه است که به عنوان مجموعه‌ای از تعاملات که به‌طور ناگهانی و غیرقابل پیش‌بینی در سیستم‌های هوشمند ظاهر می‌شوند که از رفتارهای برنامه‌ریزی‌شده ساده‌ با مؤلفه‌های فردی حاصل می‌شود. محققان می‌گویند شواهدی از این رفتار را می‌توان در مدل‌هایی مشاهده کرد که در آن سیستم‌هایی که برای بازی شطرنج آموزش دیده‌اند، استراتژی‌های منحصربه‌فردی برای پیشرفت ایجاد می‌کنند، یا در مدل‌هایی که ربات‌ها زمانی که تنوع در الگوهای حرکتی که در ابتدا برنامه‌ریزی نشده بودند، زبان را به تنهایی یاد می‌گیرند. ظهور جهش‌های آنی و غیرقابل پیش‌بینی، تحقیقات گسترده‌ای را در مورد ریشه‌های این توانایی‌ها و مهم‌تر از آن، پیش‌بینی‌پذیری آنها انجام داده است. به این دلیل که در حوزه تحقیقات همسویی هوش مصنوعی، ظهور پیش‌بینی‌نشده توانایی‌های هوش مصنوعی، به‌عنوان یک شاخص هشداردهنده در نظر گرفته می‌شود که شبکه‌های هوش مصنوعی با مقیاس بالا ممکن است به طور غیرمنتظره‌ای توانایی‌های ناخواسته یا حتی خطرناک را بدون هیچ هشداری ایجاد کنند. پیرو آن، محققان دانشگاه استنفورد با انتشار مقاله‌ای که سروصدای زیادی به پا کرد، اظهار کردند که شواهد رفتارهای غیرمنتظره مبتنی بر آماری است که ممکن است اشتباه تفسیر شده باشد و قابلیت‌های نوظهور قبلی احتمالا سرابی هستند که توسط تجزیه و تحلیل محققان هدایت می‌شوند. تجزیه و تحلیل آماری را می‌توان به روش‌های مختلفی بیان کرد. محققان استدلال می‌کنند که وقتی نتایج در معیارهای غیرخطی یا ناپیوسته گزارش می‌شوند، به نظر می‌رسد تغییرات سریع و غیرقابل پیش‌بینی را نشان می‌دهند که به‌عنوان شاخص‌های رفتار نوظهور به اشتباه تعبیر می‌شوند. با این حال، روش‌های جایگزین برای اندازه‌گیری همان داده‌ها با استفاده از متریک‌های خطی، تغییرات هموار و پیوسته را نشان می‌دهند که برخلاف اندازه‌گیری‌های قبلی، رفتار قابل پیش‌بینی را نشان می‌دهد. ادعاهای موجود در مورد قابلیت‌های نوظهور به جای تغییرات اساسی در رفتار مدل برای وظایف خاص، توسط تحلیل‌های محققان ایجاد می‌شود. به‌عبارتی روش‌شناسی مطالعات گذشته احتمالا منجر به نتیجه‌گیری‌های گمراه‌کننده شده است. نکته مهم این است که محققان می‌توانند معیارهایی را برای ایجاد قابلیت‌های نوظهور و یا حذف آن انتخاب کنند. این به نتیجه چت‌جی‌پی‌تی مربوط می‌شود که نشان می‌دهد خروجی الگوریتم به پارامترهای تنظیم‌شده توسط سازنده بستگی دارد، به این معنی که در خودِ هوش مصنوعی، فضایی برای سوگیری احتمالی وجود دارد. این روزها ویژگی‌های نوظهور، تیتر خبرها شده است زیرا ماشین‌های هوشمند مهارت‌های بیشتری کسب می‌کنند و درک ما از عملکرد درونی آنها مبهم‌تر می‌شود. به نظر می‌رسد که مهارت‌ها لازم است تا مدل‌های هوش مصنوعی به‌طور قابل‌توجهی توانمندتر و بالقوه خطرناک‌تر شوند. به همین دلیل ضروری است که ابزارهای ارزیابی دقیقی را برای ردیابی چگونگی توسعه هوش مصنوعی ایجاد کنیم. نگرانی محققان این است که چگونه کل زمینه تحقیقات هوش مصنوعی در چنین کلیپی پیشرفت می‌کند که از طریق کنترل‌هایی که پایه اصلی روش علمی ‌بوده‌اند، نفوذ می‌کند. مشکلِ برخورد با این مدل‌های بزرگ هوش مصنوعی این است که شما به مدل‌ها دسترسی ندارید. شما حتی نمی‌توانید به آنها ورودی بدهید زیرا مدل‌ها توسط شرکت‌های خصوصی کنترل می‌شوند. محققان اغلب مجبورند مجموعه‌‌ای از داده بسازند و آنها را به شرکت‌ها بفرستند تا مدل‌هایشان را اجرا کنند. سپس شرکت‌ها خروجی‌ها را نمره‌گذاری کرده و آنها را به محقق ارسال می‌کنند. این شرکت‌ها برای کمک به فروش محصولات و همچنین به حداقل رساندن عوارض جانبی مضر احتمالی که ممکن است برای کسب‌وکار مناسب نباشد، انگیزه دارند تا توانایی‌های هوش مصنوعی را بیش از حد ارزیابی کنند. این واقعیت که مدل‌ها خصوصی هستند و اطلاعات کنترل می‌شود، اجرای فرایندهای علمی را بسیار سخت می‌کند.

سراب مدرن

در گذشته زمانی که گوشی‌های هوشمند و اینترنت یک داستان علمی تخیلی دوردست بودند، مردم هرگز نمی‌توانستند تصور کنند که آینده چه خواهد بود و اعتقاد بر این بود چیزی نیست که وجود نداشته باشد! درست به همین دلیل فقط چیزی را که می‌بینیم باور می‌کنیم. اما آنچه امروز می‌بینیم اغلب وجود ندارد. مثل یک سراب مدرن است. فناوری ویدئویی هوش مصنوعی که ویدئوهای واقعی را با استفاده از ورودی متن ایجاد می‌کند - ورودی صوتی در آینده نزدیک در راه است - ما را به لبه آنچه فکر می‌کنیم ممکن است می‌برد. آنچه می‌بینیم همیشه آن چیزی نیست که به نظر می‌رسد. این انقلاب تکنولوژیک نسخه مدرن جعبه پاندورا را باز می‌کند و موجی از تغییرات پیشگامانه را به راه می‌اندازد که سریع‌تر و گسترده‌تر از هر چیزی در سه قرن اخیر خواهد بود. اکنون زمان مناسبی برای کشف این دنیای شگفت‌انگیز و در عین حال گیج‌کننده است. برای کشف امکانات جدید در سرگرمی، سیاست، آموزش و زندگی شخصی و در عین حال پرداختن به سؤالات جدی اخلاقی. در حالی که مزایای ویدئوهای تولیدشده با هوش مصنوعی آشکار است، اما خطراتی را نیز به همراه دارند که نمی‌توان نادیده گرفت. یکی از نگرانی‌های اصلی، استفاده نادرست بالقوه از دیپ‌فیک‌هاست؛ ویدئوهایی که نشان می‌دهند مردم چیزهایی را می‌گویند یا انجام می‌دهند که هرگز اتفاق نیفتاده است. این می‌تواند برای دستکاری افکار عمومی، بی‌اعتبارکردن مخالفان سیاسی، یا به تصویر کشیدن افراد مشهور در موقعیت‌های سازش‌کار استفاده شود. خطر دیگر مربوط به حریم خصوصی و امنیت است: با داده‌های کافی، هوش مصنوعی می‌تواند آن‌قدر واقع‌بینانه از یک فرد تقلید کند که حتی کارشناسان در تشخیص واقعی و جعلی با مشکل مواجه شوند که می‌تواند منجر به از دست دادن اعتماد به محتوای دیجیتال شود و پایه‌های جامعه اطلاعاتی ما را متزلزل کند. به‌عنوان مثال فناوری جدیدی را تصور کنید که به زودی می‌تواند به واقعیت تبدیل شود: صفحه‌نمایش را روشن می‌کنید و ناگهان با تصویر کامل خود روبه‌رو می‌شوید - تغییر، منیت شما، که دقیقا و بدون نقص تا کوچک‌ترین جزئیات از شما تقلید می‌کند. لباس‌های همسان، همان صدا، همان چشمان. این دوبل دیجیتال نه خطاهای پیکسلی و نه دیدگاه‌های تحریف‌شده را نشان می‌دهد، بلکه نمایشی کاملا واقعی از خودتان است. بسته به برنامه‌نویسی، این داپلگانگر دیجیتال می‌تواند به شیوه‌ای تحسین‌آمیز یا تهدیدآمیز پاسخ دهد. در یک سناریوی وحشتناک، همتای شما می‌تواند محرمانه‌ترین اسرار شما را فاش کند و آنها را در تمام کانال‌های تلویزیونی و رسانه‌های اجتماعی پخش کند، مگر اینکه مبلغ مشخصی را به حسابی مشخص پرداخت کنید. با این حال شما شهروندی شرافتمند و بی‌تقصیر هستید و از هرگونه تخلفی مبرا هستید. شما رفتاری مثال‌زدنی دارید و شایسته احترام هستید. اما چه کسی باور می‌کند که اگر یک نسخه واقعی و متمایز از شما در تلویزیون به گناه خود اعتراف کند؟ چگونه ممکن است چنین تصویر واقع‌بینانه‌ای از شما وجود داشته باشد. تعجب خواهید کرد که هر چند وقت یک بار تصویر شما بر روی تلفن‌های همراه متعدد چه عمدا یا ناخواسته گرفته می‌شود. با توجه به خطرات محتوای تولیدشده توسط هوش مصنوعی، واضح است که اقدامات نظارتی قوی لازم است. کارشناسان خواستار توافق‌نامه‌ها و قوانین بین‌المللی برای تنظیم تولید و توزیع این فناوری‌ها هستند. یک ایده امیدوارکننده ایجاد یک نهاد بین‌المللی است که یک واترمارک تغییرناپذیر را در تمام ویدئوهای تولیدشده توسط هوش مصنوعی تعبیه کند. این به عنوان یک «اثر انگشت» دیجیتال عمل می‌کند تا به وضوح منشأ و اعتبار یک ویدئو را شناسایی کند که نمادی از تعهد به امنیت و اخلاق در دنیای دیجیتال است. اما حتی با وجود چنین چارچوب بین‌المللی، مکانیسم‌های نظارتی و اجرائی باید برای اطمینان از رعایت قوانین توسط همه طرف‌های درگیر ایجاد شود. علی‌رغم این اقدامات، چالش همچنان باقی است که مجرمان با انگیزه بالا یا حتی بازیگران دولتی می‌توانند به طور بالقوه راه‌هایی برای دور‌‌زدن این اقدامات امنیتی بیابند و رقابت تسلیحاتی دائمی بین فناوری‌های امنیتی و روش‌های دور‌زدن آنها ایجاد کنند. مجرمان می‌توانند از ویدئوهای تولید‌شده توسط هوش مصنوعی برای باج‌گیری از افراد با محتوای جعلی و سازش‌آور استفاده کنند که اعتماد عمومی را تضعیف می‌کند و می‌تواند مشاغل را از بین ببرد. بزرگ‌ترین خطر این فناوری در ایجاد اخبار جعلی متقاعد‌کننده نهفته است‌ که می‌تواند از‌ طریق ویدئوهای پخش سریع حاوی اظهارات نادرست از شخصیت‌های سیاسی قبل از افشای آنها آسیب قابل توجهی ایجاد کند. این می‌تواند اعتماد به ارتباطات سیاسی را تضعیف کند، نارضایتی از سیاست را ترویج دهد و تأثیر مستقیمی بر نتایج انتخابات داشته باشد. بازیگران خارجی نیز می‌توانند از چنین ویدئوهایی برای دامن‌زدن به ناآرامی‌های سیاسی و تهدید امنیت جهانی استفاده کنند. در زمانی که اطلاعات، سریع‌تر از آن چیزی که صحت آن قابل تأیید است‌ منتشر می‌شود، فرایندهای دموکراتیک به طور جدی در خطر است.

نورالینک سراب است یا شاهکار

اخیرا اخباری منتشر شد مبنی‌بر اینکه نورالینک -یک استارت‌آپ علوم اعصاب آمریکایی که توسط ایلان ماسک، مدیرعامل تسلا تأسیس شده است- یک تراشه رابط مغز و کامپیوتر (BCI) را در مغز انسان کاشته است. ایلان ماسک گفت: «بیمار به‌خوبی بهبود می‌یابد». خواندن سیگنال‌های مغز در‌نهایت به معنای توانایی رمزگشایی مغز است. ماسک در‌عین‌حال گفت: افرادی که دچار ناتوانی اندام هستند، اولین استفاده‌کننده خواهند بود. این بدان معناست که می‌توان راه‌حلی برای غلبه بر بیماری‌های عصبی مختلف از جمله کوادری‌پلژی (Quadriplegia) پیدا کرد. کوادری‌پلژی نوعی از فلج است که در این حالت، انسان حس و کنترل در دست‌ها‌ و ‌پاهای خود را از دست می‌دهد و به فلج چهاراندام معروف است که در پی آسیب‌های شدید به مغز یا نخاع پدید می‌آید. مردم سراسر جهان هیجان‌زده هستند که آینده‌ای که آنها تصور می‌کردند، به واقعیت تبدیل خواهد شد. آیا نورالینک ماسک، دنیای جدیدی را برایمان باز خواهد کرد یا یک سراب موقتی است؟ اولین پیوند نورالینک هشت ماه پس از تأیید آزمایشات بالینی توسط سازمان غذا و داروی ایالات متحده (FDA) در سال گذشته انجام شد‌ و با پذیرش شرکت‌کنندگان برای کارآزمایی بالینی برای کاشت یک تراشه کامپیوتری در مغز انسان، این موضوع داغ‌تر شد. از سوی دیگر، تخمین زده می‌شود که در مجموع هزارو 500 حیوان، از جمله گوسفند، خوک‌ و میمون، در نتیجه آزمایش‌های نورالینک از سال ۲۰۱۸ مرده‌اند. اگرچه در مورد سوءاستفاده اختلاف نظر وجود داشت، اما چرا FDA ایالات متحده، آزمایشات بالینی را بر روی انسان مجاز دانست؟ هدف پزشکی عالی خواهد بود تنها به این دلیل که یک فناوری رؤیایی به بیمارانی که نمی‌توانند راه بروند اجازه می‌دهد راه بروند. اولین بیمار کاشت تراشه چه نوع آزمایشاتی را انجام خواهد داد؟ از اولین بیماران انتظار می‌رود که با حرکت‌‌دادن تلفن همراه، رایانه یا ماشین تنها با استفاده از افکار خود، وظایف خاصی را انجام دهند. ماسک ادعا می‌کند که هر‌چیزی که از طریق مغز قابل کنترل باشد، امکان‌پذیر است. این بدان معناست که بیماری‌هایی مانند چاقی، اوتیسم، افسردگی و اسکیزوفرنی قابل درمان هستند. البته واکنش دانشگاهیان هم خالی از لطف نیست. پروفسور میگوئل نیکورلیس از دانشگاه دوک، به‌شدت از این تحقیق انتقاد کرد و گفت: «این تحقیق از تحقیقات سایر محققان تقلید می‌کند، به‌‌هیچ‌‌وجه نوآورانه نیست و به جای در‌نظر‌گرفتن تأثیر آن بر انسان، بر فناوری تمرکز دارد». نورالینک چیزی نیست جز تکرار تحقیقات قبلی و تظاهر به اینکه نتایج شگفت‌انگیزی به دست آورده است. افراد زیادی هستند که از فناوری استقبال می‌کنند. پس از اجرا، هر‌چیزی که تصور می‌کنیم به واقعیت تبدیل می‌شود. خاطرات را نیز می‌توان ذخیره کرد. هر‌چیزی که بخواهید ممکن می‌شود. ایلان ماسک چه نوع برنامه‌ای دارد؟ در کوتاه‌مدت، او قصد دارد ناتوانی‌ها و بیماری‌ها را درمان کند، اما در دراز‌مدت، او ذخیره و بارگیری کل مغز انسان را در خارج از خود در نظر می‌گیرد و به مردم اجازه می‌دهد تا به طور مجازی «برای همیشه» زندگی کنند. آزمایش‌های بالینی نورالینک یکی از دروازه‌های تکمیل تصویر ماسک است. حتی اگر مرحله کاشت تراشه تثبیت شود، این سؤال وجود دارد که آیا می‌توان به هدف بعدی دست یافت؟ حتی اگر این آزمون با موفقیت به پایان برسد، با مسائل اخلاقی آن مواجه خواهد شد. سؤال اینجاست که آیا ترکیب انسان و ماشین واقعا درست است؟ نگرانی‌هایی وجود دارد که این امر می‌تواند خطری جدی برای کرامت انسانی ایجاد کند. مسیر نورالینک هموار نخواهد بود، عوامل خطرناک مختلفی وجود دارد؛ ولی با‌این‌حال، جذاب است. اگرچه وظایف گام‌به‌گام بسته به موفقیت آزمون باقی می‌ماند، اما واضح است که در آینده تأثیر قابل توجهی بر بازار جهانی خواهد داشت. اگر این یک آینده طبیعی است که بشریت باید با آن مواجه شود، ما باید برای آن آماده شویم. حتی اگر شکست بخورد، این فناوری است که روزی در عصر هوش مصنوعی باید با آن روبه‌رو شویم. اگر دقت کنید مجبور نیستید فریب سراب را بخورید‌.

برای تبدیل‌شدن به یک دوره جدید، نه یک سراب

این روزها به هرکجا که می‌روم، فقط در مورد چت‌جی‌پی‌تی صحبت می‌شود. از آنجایی که به عنوان منبع باز منتشر شده است و هرکسی می‌تواند از طریق اینترنت به آن دسترسی داشته باشد، ما توانسته‌ایم تجربه کنیم که هوش مصنوعی چقدر برای ما پیشرفته شده است. هوش مصنوعی که زمانی شبیه چیزی از دنیای دیگری به نظر می‌رسید، اکنون عمیق‌تر به زندگی روزمره ما نفوذ کرده است. هوش مصنوعی باز -که با انتشار چت‌جی‌پی‌تی بیش از شوک و ترس را به صنعت وارد کرد- در‌حال‌حاضر با پیشی‌گرفتن از گوگل، در روند نوآوری در هوش مصنوعی‌ پیشرو است. چت‌جی‌پی‌تی مجهز به الگوریتم یادگیری تقویتی است که محتوای مکالمه را از طریق گفت‌وگو با کاربران یاد می‌گیرد و جمع‌آوری می‌کند، سپس به سؤالات کاربر گوش می‌دهد و پاسخ‌های بهینه‌تری ارائه می‌دهد. این هیولایی است که متون منتشر‌شده توسط صدها میلیون کاربر در سراسر جهان را بر‌اساس ۱۷۵ میلیارد پارامتر، فورا یاد می‌گیرد. به عبارت دیگر، هرچه کاربران بیشتر از آن استفاده کنند، هوش چت‌جی‌پی‌تی بالاتر می‌رود. به زبان ساده، ماشینی است که در مدت‌زمان کوتاهی مقادیر بی‌شماری از داده‌ها را طبقه‌بندی کرده و یاد می‌گیرد و نتایج بهینه را تولید می‌کند. استفاده از چت‌جی‌پی‌تی واقعا بی‌پایان است زیرا از تمام اطلاعات موجود در اینترنت پر می‌شود و یاد می‌گیرد. چت‌جی‌پی‌تی می‌تواند شما را به یک گزارشگر، شاعر یا آهنگ‌ساز تبدیل کند و حتی می‌تواند جایگزین یک پلتفرم سایت جست‌وجو شود. هوش مصنوعی که به پردازش ساده اطلاعات محدود می‌شد، تنها در عرض پنج سال به سطح پیش از خلاقیت رسیده است. در این مرحله، لازم است به موقعیت گوگل که منجر به جنون هوش مصنوعی شد، نگاهی بیندازیم. در واقع، گوگل حتی قبل از انتشار چت‌جی‌پی‌تی در سال ۲۰۱۷، با عرضه مدلی به نام Transformer، صنعت هوش مصنوعی را پیشتاز کرده است. گوگل به این دلیل مشهور است که شرکتی است که به توسعه «هوش مصنوعی با هوشیاری انسان‌مانند» نزدیک‌تر شده است. گوگل که مهارت و قابلیت‌های فناورانه‌ای را در هوش مصنوعی محاوره‌ای و هوش مصنوعی مولد نشان می‌دهد، هنوز هم به محدودیت‌های هوش مصنوعی اشاره می‌کند حتی در این لحظه که چت‌جی‌پی‌تی رهبری این جنون را بر‌عهده دارد. گوگل شرکتی است که هوش مصنوعی را نه به عنوان یک سراب، بلکه به عنوان پیوندی می‌داند که می‌تواند عصر جدیدی را بگشاید. برای اینکه این اتفاق بیفتد، مهم‌ترین شرایط باید رعایت شود؛ به عبارت دیگر، هوش مصنوعی باید به داده‌های با کیفیت بالاتر و پیشرفته‌تر دسترسی داشته باشد. بسیاری از هوش‌های مصنوعی، از جمله چت‌جی‌پی‌تی فعلی، توانایی بسیار خوبی برای یادگیری مداوم دارند، اما نمی‌توانند قضاوت کنند که کدام اطلاعات معتبر و کدام اطلاعات نادرست است. در نتیجه، چت‌جی‌پی‌تی اغلب پاسخ‌های کتبی به سؤالات و درخواست‌های کاربر ارائه می‌دهد. مطالعه تمام داده‌های موجود در اینترنت یک روش مطالعه احمقانه و وقت‌گیر است. یک دانش‌آموز خوب فقط نکات کلیدی و اطلاعات معتبری را که در آزمون ظاهر می‌شود، یاد می‌گیرد، حفظ می‌کند و می‌فهمد؛ اما هوش مصنوعی هنوز به این سطح نرسیده است. این به این دلیل است که داده‌های اینترنتی نادرست است و علاوه‌بر‌این، هوش مصنوعی نمی‌تواند داده‌های پیشرفته مانند مقالات دانشگاهی مورد نیاز برای حل آینده را بیاموزد. افشای داده‌های با کیفیت، شرط رشد هوش مصنوعی مولد است. برای مثال، هوش مصنوعی مولد کنونی مانند چت‌جی‌پی‌تی می‌تواند به‌راحتی متن و تصاویر اصلی را بفهمد و یاد بگیرد، اما نمی‌تواند فرمول‌ها و نمودارهای پیچیده‌ای را که توسط محققان در مقالات دانشگاهی استفاده می‌شود، درک کند. تفسیر داده‌های ام‌آرآی و سی‌تی‌اسکن و نتایجی که محققان برای مبارزه با سرطان و بیماری‌های صعب‌العلاج تجزیه‌و‌تحلیل کرده‌اند برای هوش مصنوعی دشوار است. اگر داده‌های با ‌کیفیت بیشتری فاش نشود، چت‌جی‌پی‌تی ممکن است چیزی بیش از یک سراب نباشد. در سایت‌های مقاله دانشگاهی که در آن محققان می‌خوانند و می‌نویسند، کپی‌رایت معمولا فقط با مجله دانشگاهی و نویسنده به اشتراک گذاشته می‌شود. برای مرجع، بالای ۷۰ درصد مجلات دانشگاهی در سراسر جهان پولی هستند. هوش مصنوعی مولد، مانند چت‌جی‌پی‌تی تنها با یادگیری از داده‌ها و محتوایی که توسط محققان افشا شده و تأیید شده است، می‌تواند به طور گسترده‌تری برای حل مشکلات انسانی مورد استفاده قرار گیرد. تا زمانی که مقالات دانشگاهی به دلیل مسائل مربوط به کپی‌رایت مسدود می‌شوند، هوش مصنوعی نمی‌تواند برای حل بیماری‌های صعب‌العلاج مانند سرطان استفاده شود. گوگل اشاره می‌کند که مدل‌های هوش مصنوعی که تاکنون منتشر شده‌اند، صرف‌نظر از نوع آنها، به دلیل اتکای بیش‌از‌حد به داده‌های نامناسب که از متن و تصاویر موجود در اینترنت یاد می‌گیرند، با مشکل کیفیت و دقت پایین مواجه هستند. یادگیری داده‌های نامناسب درنهایت می‌تواند برای نفرت و تفرقه طرفین مورد سوءاستفاده قرار گیرد و تنها می‌تواند با انتشار گسترده اطلاعات نادرست، مسائل امنیت سایبری را افزایش دهد. به همین دلیل است که گوگل ادعا می‌کند که هوش مصنوعی به این دلیل که فقط از داده‌های اینترنتی یاد گرفته است برای بشریت مفید نیست. برای اینکه چت‌جی‌پی‌تی به عصر جدیدی برای بشریت تبدیل شود، محققان در هر زمینه باید هوش مصنوعی را باز کنند و نتایج تحقیقات را به اشتراک بگذارند تا هوش مصنوعی مولد بتواند داده‌های با کیفیت بیشتری بیاموزد و مشکلات بشریت را بر این اساس حل کند. سال گذشته گوگل موفق شد ساختار بیش از ۲۰۰ میلیون پروتئین را از طریق برنامه هوش مصنوعی خود پیش‌بینی کند. این نمونه چشمگیر استفاده مؤثر از هوش مصنوعی است.

در پایان

می‌توانیم از عملکرد و پتانسیل هوش مصنوعی برای تغییر دنیای خود قدردانی کنیم. همچنین باید بپذیریم که هوش مصنوعی بازتابی از انسانیت است؛ چشمگیر و د‌رعین‌حال ذاتا ناقص. همان‌طور‌که ما در این چشم‌انداز دیجیتال پیمایش می‌کنیم، بسیار مهم است که هوشیار بمانیم، اطلاعاتی را که دریافت می‌کنیم مورد پرسش قرار دهیم و اعتبار‌سنجی کنیم. با انجام این کار، می‌توانیم از قدرت هوش مصنوعی به عنوان ابزاری برای رشد و نوآوری استفاده کنیم و در‌عین‌حال اطمینان حاصل کنیم که بشریت با تمام تفکر انتقادی و تشخیص خود، در خط مقدم باقی می‌ماند. تنها در این صورت است که می‌توانیم سراب را به واحه‌ای واقعی از دانش تبدیل کنیم.

 

نظر شما