شناسهٔ خبر: 71348722 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: شفقنا | لینک خبر

دفاع گوگل از لغو تعهدات در خصوص ساخت هوش مصنوعی برای تسلیحات و نظارت

صاحب‌خبر -

شفقنا – مدیران گوگل جزئیاتی درباره چگونگی کاهش ابتکارات تنوع در این شرکت فناوری ارائه کردند و در یک جلسه عمومی با تمام کارکنان، از تصمیم خود برای کنار گذاشتن تعهد عدم ساخت هوش مصنوعی برای تسلیحات و نظارت دفاع کردند.

به گزارش سرویس ترجمه شفقنا به نقل از گاردین، ملونی پارکر، رئیس سابق بخش تنوع گوگل، گفت که این شرکت برنامه‌های آموزشی تنوع و شمول کارکنان را حذف کرده و برنامه‌های آموزشی گسترده‌تری که دارای «محتواهای DEI» هستند را «به‌روزرسانی» می‌کند.

پس از آنکه گوگل اعلام کرد دیگر اهداف استخدامی برای تنوع را دنبال نخواهد کرد و تعهد خود مبنی بر عدم ساخت هوش مصنوعی نظامی را کنار گذاشت، این اولین بار بود که مدیران شرکت با تمام کارکنان صحبت می‌کردند.

کنت واکر، مدیر ارشد حقوقی شرکت، گفت که از زمان معرفی اصول هوش مصنوعی گوگل در سال ۲۰۱۸، که به صراحت اعلام می‌کرد گوگل هوش مصنوعی برای اهداف مضر نخواهد ساخت، تغییرات زیادی رخ داده است. او در پاسخ به سوالی درباره دلیل حذف ممنوعیت ساخت هوش مصنوعی برای تسلیحات و نظارت، گفت که «برای جامعه خوب است» که شرکت در بحث‌های ژئوپلیتیکی در حال تحول نقش داشته باشد.

پارکر گفت که به عنوان یک پیمانکار فدرال، شرکت تمام برنامه‌ها و ابتکارات خود را در پاسخ به دستورات اجرایی دونالد ترامپ بررسی کرده است که به سازمان‌های فدرال و پیمانکاران دستور می‌دهد کارهای مربوط به DEI را متوقف کنند. نقش پارکر نیز از مدیر ارشد تنوع به معاون رئیس بخش مشارکت کارکنان گوگل تغییر یافته است.

او گفت: «آنچه تغییر نکرده این است که ما همیشه بهترین فرد را برای کار استخدام می‌کنیم.»

ساندار پیچای، مدیرعامل گوگل، گفت که این شرکت همیشه به استخدام نیروی کاری که نماینده تنوع کاربران جهانی آن باشد، اهمیت داده است، اما باید از قوانین و مقررات محل فعالیت خود پیروی کند.

پیچای که از پاریس و در حین شرکت در یک اجلاس بین‌المللی هوش مصنوعی صحبت می‌کرد، به همراه سایر مدیران به سوالات کارکنان پاسخ می‌دادند. برخی از این سوالات بخشی از تلاش‌های هماهنگ گروه‌های فعال کارگری مانند «No Tech for Apartheid» بود تا مدیران شرکت را وادار به پاسخگویی درباره تغییرات گسترده شرکت نسبت به ارزش‌های اصلی قبلی خود کنند.

بر اساس گزارش‌ها، کارکنان ۹۳ سوال درباره تصمیم شرکت برای حذف تعهد عدم ساخت تسلیحات هوش مصنوعی و بیش از ۱۰۰ سوال درباره اعلامیه گوگل مبنی بر کاهش تعهدات DEI ارسال کرده بودند. این شرکت اخیراً از هوش مصنوعی برای خلاصه‌سازی سوالات مشابه کارکنان قبل از جلسات منظم کارکنان، که به نام TGIF شناخته می‌شوند، استفاده کرده است.

هفته گذشته، گوگل به همراه متا و آمازون از تأکید بر فرهنگ شمول فاصله گرفت و به سمت سیاست‌هایی حرکت کرد که به نفع سیاست‌هایی که در تصویر دولت ترامپ شکل می‌گیرد. علاوه بر حذف اشاره‌هایی به تعهد به تنوع، برابری و شمول (DEI) از پرونده‌های ارائه شده به کمیسیون بورس و اوراق بهادار ایالات متحده، این شرکت اعلام کرد که دیگر اهداف استخدامی برای افراد از زمینه‌های کم‌نماینده تعیین نخواهد کرد. این شرکت همچنین عباراتی را از اصول هوش مصنوعی خود که به صورت عمومی منتشر شده بود، حذف کرد که بیان می‌کرد هوش مصنوعی برای اهداف مضر از جمله تسلیحات و نظارت ساخته نخواهد شد.

واکر، مدیر ارشد حقوقی، گفت: از ما به طور فزاینده‌ای درخواست می‌شود که در برخی از گفتگوهای مهم حضور داشته باشیم، و فکر می‌کنم برای جامعه خوب است که گوگل در آن گفتگوها و در حوزه‌هایی که تخصص داریم – مانند امنیت سایبری یا برخی از کارهای مربوط به زیست‌شناسی و بسیاری دیگر – نقش داشته باشد. در حالی که ممکن است برخی از ممنوعیت‌های سختگیرانه‌ای که در [نسخه اول] اصول هوش مصنوعی وجود داشت، با این گفتگوهای پیچیده‌تر که اکنون داریم، همخوانی نداشته باشد؛ اما واقعیتی که باقی می‌ماند این است که که مزایا به طور قابل توجهی بیشتر از خطرات است.

گوگل مدت‌ها تلاش کرده است این تصور را ایجاد کند که بین ارزش‌های اعلام شده شرکت و ارزش‌های فرهنگ خود و دنبال کردن قراردادهای دولتی و دفاعی تعادل برقرار کرده است. پس از اعتراضات کارکنان در سال ۲۰۱۸، این شرکت از پروژه Maven وزارت دفاع ایالات متحده آمریکا – که از هوش مصنوعی برای تحلیل فیلم‌های پهپادها استفاده می‌کرد – خارج شد و اصول و ارزش‌های هوش مصنوعی خود را منتشر کرد که قول می‌داد هوش مصنوعی برای تسلیحات یا نظارت ساخته نخواهد شد.

با این حال، در سال‌های پس از آن، این شرکت پس از کسب قرارداد ۹ میلیارد دلاری Joint Warfighting Cloud Capability به همراه مایکروسافت، آمازون و اوراکل، دوباره همکاری با پنتاگون را آغاز کرد. گوگل همچنین قراردادهای فعالی برای ارائه هوش مصنوعی به نیروهای دفاعی اسرائیل داشته است. این شرکت فناوری در طول زمان تلاش کرده است این قرارداد که پروژه Nimbus نام دارد، را از بخش نظامی دولت اسرائیل دور نگه دارد، اما واشنگتن پست اسنادی را فاش کرد که نشان می‌داد این شرکت نه تنها با نیروهای دفاعی اسرائیل همکاری کرده است، بلکه پس از حملات ۷ اکتبر برای پاسخگویی به درخواست‌های جدید برای دسترسی بیشتر به هوش مصنوعی عجله کرده است. مشخص نیست که نیروهای دفاعی اسرائیل چگونه از قابلیت‌های هوش مصنوعی گوگل استفاده می‌کنند، اما همان‌طور که گاردین گزارش داده است، ارتش اسرائیل از هوش مصنوعی برای اهداف نظامی مختلف از جمله کمک به یافتن و شناسایی اهداف بمباران استفاده کرده است.

آنا کوالچیک، سخنگوی گوگل، در بیانیه‌ای گفت که همکاری این شرکت با دولت اسرائیل «مربوط به کارهای بسیار حساس، طبقه‌بندی شده یا نظامی مرتبط با تسلیحات یا خدمات اطلاعاتی نیست.»

سازمان‌دهندگان گروه No Tech for Apartheid گفتند که اعلامیه‌های DEI و هوش مصنوعی به شدت مرتبط هستند. این گروه در فراخوانی برای اقدام کارگران که روز سه‌شنبه منتشر شد، نوشت: معاون ارشد عملیات منابع انسانی، فیونا سیچونی، اعلام کرد که اقدام برای از برچیدن برنامه‌های DEI به منظور مصون نگه داشتن قراردادهای دولتی از «خطر» انجام شده است. مهم است توجه داشته باشید که بخش عمده‌ای از هزینه‌های دولت برای خدمات فناوری از طریق نظامی انجام می‌شود.

برای هر دسته از سوالات کارکنان، هوش مصنوعی داخلی گوگل تمام سوالات را در یک سوال خلاصه می‌کند. هوش مصنوعی سوالات درباره توسعه تسلیحات هوش مصنوعی را به این صورت خلاصه کرد: ما اخیراً بخشی از صفحه اصول هوش مصنوعی خود را که متعهد به اجتناب از استفاده از این فناوری در کاربردهای بالقوه مضر مانند تسلیحات و نظارت بود، حذف کردیم. چرا این بخش را حذف نمودیم؟

در حالی که شرکت قابلیت دسترسی به تمام سوالات مطرح شده را فراهم نمی‌آورد، این فهرست تصویری از برخی از آن‌ها ارائه می‌دهد. سوالاتی که کارکنان پرسیدند شامل این بود که چگونه اصول به‌روزرسانی شده هوش مصنوعی اطمینان می‌دهد که ابزارهای شرکت «برای اهداف مضر مورد سوءاستفاده قرار نمی‌گیرند» و از مدیران خواستند که «لطفاً صراحتاً و بدون استفاده از زبان شرکت‌ها و اصطلاحات حقوقی صحبت کنند.»

سومین سوال محبوب کارکنان این بود که چرا خلاصه‌های هوش مصنوعی اینقدر بد هستند.

در این سوال آمده بود: خلاصه‌های هوش مصنوعی از سوالات افتضاح هستند. آیا می‌توانیم به پاسخ دادن به پرسش‌هایی که مردم واقعاً پرسیده‌اند، برگردیم؟

این خبر را در گاردین ببینید.