شناسهٔ خبر: 70066201 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: همشهری آنلاین | لینک خبر

کاهش پیشرفت هوش مصنوعی!

کند شدن سرعت پیشرفت هوش مصنوعی ممکن است باتوجه‌به شتاب‌ این حوزه در سال گذشته، اتفاق بدی نباشد.

صاحب‌خبر -

به گزارش همشهری آنلاین، به نقل از دیجیاتو، برخی کارشناسان معتقدند سرعت پیشرفت هوش مصنوعی کاهش یافته و توانایی‌های این فناوری در آینده با توانایی‌های کنونی آن تفاوتی نخواهد داشت. آیا واقعاً چنین خواهد شد.

سرعت پیشرفت هوش مصنوعی در آینده موضوع اصلی این هفته «سربرال ولی اِی‌آی سامیت» (Cerebral Valley AI Summit) در سان فرانسیسکو بود؛ نشستی که با حضور حدود ۳۵۰ مدیرعامل، مهندس و سرمایه‌گذار در حوزه هوش مصنوعی برگزار شد.

پیشرفت هوش مصنوعی در آینده رشد سریعی دارد؟

تاکنون، چرخه هیجان هوش مصنوعی (AI hype cycle) بر این نظریه استوار بوده که با استفاده از داده‌ها و محاسبات بیشتر برای آموزش مدل‌های جدید هوش مصنوعی، می‌توان به نتایج به‌مراتب بهتری دست یافت اما گوگل و سایر غول‌های فناوری اکنون با مشکل بازده کاهشی در آموزش مدل‌های جدید خود مواجه شده‌اند. فرضیه موانع مختلف بر سر راه پیشرفت هوش مصنوعی که ازاین‌پس به‌عنوان فرضیه «دیوار» از آن یاد می‌کنیم، این احتمال را که آن نسل بعدی مدل‌های اصلی هوش مصنوعی به‌طور قابل‌توجهی باهوش‌تر از مدل‌های موجود خواهند بود، به چالش می‌کشد.

«الکساندر وانگ» (Alexandr Wang)، مدیرعامل «اسکیل آپ» (Scale AI)، شرکتی که به OpenAI، متا و دیگران در آموزش مدل‌هایشان کمک می‌کند، در اولین جلسه نشست به «اریک نیوکامر» (Eric Newcomer)، میزبان آن، گفت:

آیا ما به دیوار خورده‌ایم؟ هم بله هم نه.

شاید این‌طور به نظر برسد که مدل‌های هوش مصنوعی متعلق به آنتروپیک، OpenAI و دیگر شرکت‌ها چندان باهوش‌تر از مدل‌های فعلی نباشند اما افرادی که با AI کار می‌کنند، بر این باورند که مدل‌های AI هنوز جای زیادی برای بهتر شدن و متفاوت شدن با مدل‌های کنونی دارند. بااینکه قابلیت «استدلال» که OpenAI در o1، مدل جدید خود، ارائه داده است، درحال‌حاضر قابلیت پرهزینه‌ای محسوب می‌شود و بسیار کند عمل می‌کند، این قابلیت نشان‌دهنده تغییری در آینده حوزه AI است که به نظر می‌رسد همه با آن موافق باشند؛ پیشرفت بعدی هوشمندترکردن مدل‌های زبانی بزرگ امروزی خواهد بود (همه کارشناسان هوش مصنوعی بر سر این موضوع اتفاق‌نظر دارند.)

الکساندر وانگ در سخنرانی خود در سربرال ولی اِی‌آی سامیت گفت: درک افراد از مفهوم پیشرو بودن به میزان قابل‌توجهی تغییر کرده است.

او به این موضوع اشاره کرد که بخش بزرگی از سرمایه‌گذاری‌های انجام‌شده در هوش مصنوعی بر این باور استوار بود که «قانون مقیاس» همچنان پابرجا خواهد بود اما اینکه این قانون واقعاً پابرجا می‌ماند یا خیر بزرگ‌ترین سؤال کنونی حوزه هوش مصنوعی است. قانون مقیاس در هوش مصنوعی به این موضوع اشاره می‌کند که عملکرد مدل‌های یادگیری ماشین، به‌ویژه مدل‌های بزرگ زبانی، با افزایش منابع مختلف مانند داده‌های آموزشی، توان محاسباتی و اندازه مدل پیوسته و قابل‌پیش‌بینی بهبود می‌یابد.

کند شدن سرعت پیشرفت هوش مصنوعی ممکن است باتوجه‌به شتاب‌ این حوزه در سال گذشته، اتفاق بدی نباشد. هنگام برگزاری رویداد سربرال ولی اِی‌آی سامیت در مارس ۲۰۲۳، هنوز سام آلتمن اخراج و دوباره استخدام نشده بود؛ مارک زاکربرگ هنوز تصمیم نگرفته بود مدل لاما را به‌صورت عمومی عرضه کند و ایلان ماسک که برای راه‌اندازی xAI اعضای تیمش را جمع‌ می‌کرد، تقاضای توقف توسعه هوش مصنوعی را مطرح کرد. همان زمان، «عماد مستقی» (Emad Mostaque)، بنیان‌گذار Stability AI، مدعی بود می‌خواهد «یکی از بزرگ‌ترین و بهترین شرکت‌های جهان» را بسازد اما این شرکت اکنون تقریباً سقوط کرده و مستقی هم دیگر مدیرعامل آن نیست!

عامل‌ها، آینده هوش مصنوعی

اکنون در محافل هوش مصنوعی، «عامل‌ها» (Agents) موردتوجه‌اند. عامل‌ها مدل‌های زبانی بزرگی هستند که می‌توانند کنترل کامپیوتر را به دست بگیرند و به‌جای کاربر اقدام کنند. شایعاتی وجود دارد که گوگل ماه آینده عامل «جمینی» خود را معرفی خواهد کرد و پس‌ازآن OpenAI در ژانویه از نسخه خود رونمایی خواهد کرد. متا نیز درحال کار روی عامل‌هاست. «داریو آمودِی» (Dario Amodei)، مدیرعامل آنتروپیک پایان روز برگزاری همایش همراه 2 محافظ شخصی‌اش حضور یافت. این شرکت به‌تازگی عامل ساده‌ای را از طریق API خود عرضه کرده.

الکساندر وانگ درمورد آینده عامل‌ها این‌گونه پیش‌بینی کرده است: برای عامل‌ها هم لحظه‌ای مشابه ChatGPT اتفاق می‌افتد؛ شما یک عامل عمومی خواهید داشت که احتمالاً بسیار محبوب خواهد شد.

البته او معتقد است آزمایشگاه‌های هوش مصنوعی برای رسیدن به این هدف به نوع جدیدی از داده‌ها برای آموزش نیاز دارند.

وی درباره این موضوع گفت: اینترنت به‌طرز شگفت‌آوری داده‌های کمی درباره اقدامات انسانی و مستندسازی فرایندهای فکری آنها حین انجام این اقدامات دارد.

براساس شنیده‌ها، داریو آمودِی تنها مدیرعامل هوش مصنوعی مخالف نظریه به بن‌بست‌خوردن قانون مقیاس‌پذیری است. او به‌تازگی ۴ میلیارد دلار دیگر از آمازون گرفته تا در سرویس ابری آمازون وب‌سرویس و تراشه‌های داخلی این شرکت سرمایه‌گذاری کند.

آمودِی در سخنرانی‌اش در سربرال ولی اِی‌آی سامیت گفت: هیچ‌چیز در این حوزه ندیده‌ام که با آنچه در ۱۰ سال گذشته مشاهده کرده‌ام، ناسازگار باشد یا من را به این نتیجه برساند که روند پیشرفت AI کند خواهد شد

البته آمودِی استدلال‌های زیادی برای اثبات این ادعا نداشت. او توضیح نداد چرا آنتروپیک هنوز نسخه بعدی «اوپوس» (Opus)، پیشرفته‌ترین و گران‌ترین مدل کلاد «Claude» خود، را که مدت‌هاست آن را تبلیغ می‌کند، عرضه نکرده. وقتی اریک نیوکامر او را برای اعلام زمان دقیق این مدل تحت‌ فشار قرار داد، فقط در پاسخ گفت: «به‌طورکلی، هرچند ماه یک‌ بار مدل‌های بهتری خواهیم دید.» و حضار به حرفش خندیدند.

آمودِی ادعا کرد «هوش عمومی مصنوعی» (AGI) ممکن است به‌زودی و حتی تا سال آینده محقق شود. به گفته او باوجود تمام هیجانات، «تحقق این سطح پیشرفته از هوش مصنوعی، زندگی ما را به‌سرعت تحت‌تأثیر قرار نخواهد داد». تطبیق پیش‌بینی‌های مرتبط با هوش مصنوعی عمومی با وضعیت فعلی حوزه هوش مصنوعی کمی دشوار است؛ هوش مصنوعی عمومی به سطحی از این فناوری گفته می‌شود که در زمینه‌های شناختی و نتیجه‌گیری توانایی رقابت با انسان را دارد.

افرادی مثل آمودِی همچنان به پایداری سرعت پیشرفت هوش مصنوعی معتقدند و باور دارند این فناوری در آینده به‌طرز چشمگیری قدرتمندتر خواهد شد. او ابتدای روز برگزاری همایش، در نشستی دیگر به میزبانی مؤسسه ایمنی هوش مصنوعی ایالات‌ متحده، به ریاست «جینا ریموندو»، وزیر بازرگانی آمریکا، صحبت کرد. وی در نشست «سربرال ولی» (Cerebral Valley)، از دیدگاه «مارک آندریسن» درباره ایمنی هوش مصنوعی انتقاد کرد؛ این دیدگاه به‌صورت لسه‌فر (بی‌مداخله) و با این استدلال که «هوش مصنوعی فقط ریاضیات است»، ایمنی را بی‌اهمیت می‌داند.

آمودِی پاسخ داد: «آیا مغز شما هم فقط ریاضی نیست؟ وقتی یک نورون شلیک می‌کند و سیناپس‌ها را جمع می‌زند، آن هم ریاضی است؛ پس نباید از هیتلر بترسیم. او هم فقط ریاضی است، درست است؟»