-
۱۴۰۳-۰۷-۲۱ ۱۸:۳۴ [انتخاب]
پدرخوانده هوش مصنوعی هشدار داد: شاید هیولاهایی بسازیم که از ما قویتر باشند
«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود، درمورد خطرات توسعه بیقاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده که از انسان قویترند. یاشوا بنجیو ازجمله افرادی است که بخش عمدهای از دوران حرفهای خود را به تحقیق درمورد شبکههای عصبی و الگوریتمهای یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبهای اختصاصی با یاهو فاینانس این نگرانیها را بیان کرده است.
-
۱۴۰۳-۰۷-۲۱ ۲۱:۳۴ [رویدادایران]
هشدار پدر هوش مصنوعی: ساید هیولاهایی بسازیم که از انسان قویترند!
«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود، درمورد خطرات توسعه بیقاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده که از انسان قویترند. به گزارش دیجیاتو، یاشوا بنجیو ازجمله افرادی است که بخش عمدهای از دوران
-
۱۴۰۳-۰۷-۲۲ ۱۴:۵۴ [نورنیوز]
بالاخره هوش مصنوعی برای بشر خطرناک است یا خیر؟
«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخواندههای هوش مصنوعی است درمورد خطرات توسعه بیقاعده این فناوری هشدار داده و آن را به ساخت هیولاهایی تشبیه کرده که از انسان قویترند اما دانشمند ارشد متا گفته تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است.
-
۱۴۰۳-۰۷-۲۱ ۱۸:۰۹ [تابناک]
پدرخوانده هوش مصنوعی هشدار داد!
بنجیو میگوید سیستمهای هوش مصنوعی میتوانند از کنترل انسان خارج شوند.
-
۱۴۰۳-۰۷-۲۲ ۰۹:۱۵ [ایلنا]
پدرخوانده هوش مصنوعی هشدار داد: شاید هیولاهایی بسازیم که از ما قویتر باشند
-
۱۴۰۳-۰۷-۲۱ ۲۱:۳۴ [فرارو]
هشدار پدر هوش مصنوعی: ساید هیولاهایی بسازیم که از انسان قویترند!
«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود، درمورد خطرات توسعه بیقاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده که از انسان قویترند. یاشوا بنجیو ازجمله افرادی است که بخش عمدهای از دوران حرفهای خود را به تحقیق درمورد شبکههای عصبی و الگوریتمهای یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبهای اختصاصی با یاهو فاینانس این نگرانیها را بیان کرده است.
-
۱۴۰۳-۰۷-۲۲ ۱۸:۵۳ [انتخاب]
دانشمند ارشد متا میگوید نگرانی درباره تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است
«یان لکان»، دانشمند ارشد هوش مصنوعی متا در مصاحبه جدیدی گفته است فکر نمیکند هوش مصنوعی واقعاً در آستانه عبور از هوشمندی انسان باشد و نگرانیهای مربوط به تهدید وجودی این فناوری از نظر او «کاملاً مزخرف» هستند. او درباره خطرات بالقوه هوش مصنوعی برای بشریت گفت: «باید مرا ببخشید، اما این موضوع مزخرف کامل است.»
-
۱۴۰۳-۰۷-۲۲ ۱۷:۰۷ [شما نیوز]
هوش مصنوعی
اولین هشدار رسمی درباره هوش مصنوعی/ شاید هیولاهایی بسازیم که از ما قدرتمندتر باشند!
تا کنون پیشرفت هوش مصنوعی بسیار زیاد بوده است و این پیشرفت کمی خطرناک به نظر می آید.