شفقنا – مدیران گوگل جزئیاتی درباره چگونگی کاهش ابتکارات تنوع در این شرکت فناوری ارائه کردند و در یک جلسه عمومی با تمام کارکنان، از تصمیم خود برای کنار گذاشتن تعهد عدم ساخت هوش مصنوعی برای تسلیحات و نظارت دفاع کردند.
به گزارش سرویس ترجمه شفقنا به نقل از گاردین، ملونی پارکر، رئیس سابق بخش تنوع گوگل، گفت که این شرکت برنامههای آموزشی تنوع و شمول کارکنان را حذف کرده و برنامههای آموزشی گستردهتری که دارای «محتواهای DEI» هستند را «بهروزرسانی» میکند.
پس از آنکه گوگل اعلام کرد دیگر اهداف استخدامی برای تنوع را دنبال نخواهد کرد و تعهد خود مبنی بر عدم ساخت هوش مصنوعی نظامی را کنار گذاشت، این اولین بار بود که مدیران شرکت با تمام کارکنان صحبت میکردند.
کنت واکر، مدیر ارشد حقوقی شرکت، گفت که از زمان معرفی اصول هوش مصنوعی گوگل در سال ۲۰۱۸، که به صراحت اعلام میکرد گوگل هوش مصنوعی برای اهداف مضر نخواهد ساخت، تغییرات زیادی رخ داده است. او در پاسخ به سوالی درباره دلیل حذف ممنوعیت ساخت هوش مصنوعی برای تسلیحات و نظارت، گفت که «برای جامعه خوب است» که شرکت در بحثهای ژئوپلیتیکی در حال تحول نقش داشته باشد.
پارکر گفت که به عنوان یک پیمانکار فدرال، شرکت تمام برنامهها و ابتکارات خود را در پاسخ به دستورات اجرایی دونالد ترامپ بررسی کرده است که به سازمانهای فدرال و پیمانکاران دستور میدهد کارهای مربوط به DEI را متوقف کنند. نقش پارکر نیز از مدیر ارشد تنوع به معاون رئیس بخش مشارکت کارکنان گوگل تغییر یافته است.
او گفت: «آنچه تغییر نکرده این است که ما همیشه بهترین فرد را برای کار استخدام میکنیم.»
ساندار پیچای، مدیرعامل گوگل، گفت که این شرکت همیشه به استخدام نیروی کاری که نماینده تنوع کاربران جهانی آن باشد، اهمیت داده است، اما باید از قوانین و مقررات محل فعالیت خود پیروی کند.
پیچای که از پاریس و در حین شرکت در یک اجلاس بینالمللی هوش مصنوعی صحبت میکرد، به همراه سایر مدیران به سوالات کارکنان پاسخ میدادند. برخی از این سوالات بخشی از تلاشهای هماهنگ گروههای فعال کارگری مانند «No Tech for Apartheid» بود تا مدیران شرکت را وادار به پاسخگویی درباره تغییرات گسترده شرکت نسبت به ارزشهای اصلی قبلی خود کنند.
بر اساس گزارشها، کارکنان ۹۳ سوال درباره تصمیم شرکت برای حذف تعهد عدم ساخت تسلیحات هوش مصنوعی و بیش از ۱۰۰ سوال درباره اعلامیه گوگل مبنی بر کاهش تعهدات DEI ارسال کرده بودند. این شرکت اخیراً از هوش مصنوعی برای خلاصهسازی سوالات مشابه کارکنان قبل از جلسات منظم کارکنان، که به نام TGIF شناخته میشوند، استفاده کرده است.
هفته گذشته، گوگل به همراه متا و آمازون از تأکید بر فرهنگ شمول فاصله گرفت و به سمت سیاستهایی حرکت کرد که به نفع سیاستهایی که در تصویر دولت ترامپ شکل میگیرد. علاوه بر حذف اشارههایی به تعهد به تنوع، برابری و شمول (DEI) از پروندههای ارائه شده به کمیسیون بورس و اوراق بهادار ایالات متحده، این شرکت اعلام کرد که دیگر اهداف استخدامی برای افراد از زمینههای کمنماینده تعیین نخواهد کرد. این شرکت همچنین عباراتی را از اصول هوش مصنوعی خود که به صورت عمومی منتشر شده بود، حذف کرد که بیان میکرد هوش مصنوعی برای اهداف مضر از جمله تسلیحات و نظارت ساخته نخواهد شد.
واکر، مدیر ارشد حقوقی، گفت: از ما به طور فزایندهای درخواست میشود که در برخی از گفتگوهای مهم حضور داشته باشیم، و فکر میکنم برای جامعه خوب است که گوگل در آن گفتگوها و در حوزههایی که تخصص داریم – مانند امنیت سایبری یا برخی از کارهای مربوط به زیستشناسی و بسیاری دیگر – نقش داشته باشد. در حالی که ممکن است برخی از ممنوعیتهای سختگیرانهای که در [نسخه اول] اصول هوش مصنوعی وجود داشت، با این گفتگوهای پیچیدهتر که اکنون داریم، همخوانی نداشته باشد؛ اما واقعیتی که باقی میماند این است که که مزایا به طور قابل توجهی بیشتر از خطرات است.
گوگل مدتها تلاش کرده است این تصور را ایجاد کند که بین ارزشهای اعلام شده شرکت و ارزشهای فرهنگ خود و دنبال کردن قراردادهای دولتی و دفاعی تعادل برقرار کرده است. پس از اعتراضات کارکنان در سال ۲۰۱۸، این شرکت از پروژه Maven وزارت دفاع ایالات متحده آمریکا – که از هوش مصنوعی برای تحلیل فیلمهای پهپادها استفاده میکرد – خارج شد و اصول و ارزشهای هوش مصنوعی خود را منتشر کرد که قول میداد هوش مصنوعی برای تسلیحات یا نظارت ساخته نخواهد شد.
با این حال، در سالهای پس از آن، این شرکت پس از کسب قرارداد ۹ میلیارد دلاری Joint Warfighting Cloud Capability به همراه مایکروسافت، آمازون و اوراکل، دوباره همکاری با پنتاگون را آغاز کرد. گوگل همچنین قراردادهای فعالی برای ارائه هوش مصنوعی به نیروهای دفاعی اسرائیل داشته است. این شرکت فناوری در طول زمان تلاش کرده است این قرارداد که پروژه Nimbus نام دارد، را از بخش نظامی دولت اسرائیل دور نگه دارد، اما واشنگتن پست اسنادی را فاش کرد که نشان میداد این شرکت نه تنها با نیروهای دفاعی اسرائیل همکاری کرده است، بلکه پس از حملات ۷ اکتبر برای پاسخگویی به درخواستهای جدید برای دسترسی بیشتر به هوش مصنوعی عجله کرده است. مشخص نیست که نیروهای دفاعی اسرائیل چگونه از قابلیتهای هوش مصنوعی گوگل استفاده میکنند، اما همانطور که گاردین گزارش داده است، ارتش اسرائیل از هوش مصنوعی برای اهداف نظامی مختلف از جمله کمک به یافتن و شناسایی اهداف بمباران استفاده کرده است.
آنا کوالچیک، سخنگوی گوگل، در بیانیهای گفت که همکاری این شرکت با دولت اسرائیل «مربوط به کارهای بسیار حساس، طبقهبندی شده یا نظامی مرتبط با تسلیحات یا خدمات اطلاعاتی نیست.»
سازماندهندگان گروه No Tech for Apartheid گفتند که اعلامیههای DEI و هوش مصنوعی به شدت مرتبط هستند. این گروه در فراخوانی برای اقدام کارگران که روز سهشنبه منتشر شد، نوشت: معاون ارشد عملیات منابع انسانی، فیونا سیچونی، اعلام کرد که اقدام برای از برچیدن برنامههای DEI به منظور مصون نگه داشتن قراردادهای دولتی از «خطر» انجام شده است. مهم است توجه داشته باشید که بخش عمدهای از هزینههای دولت برای خدمات فناوری از طریق نظامی انجام میشود.
برای هر دسته از سوالات کارکنان، هوش مصنوعی داخلی گوگل تمام سوالات را در یک سوال خلاصه میکند. هوش مصنوعی سوالات درباره توسعه تسلیحات هوش مصنوعی را به این صورت خلاصه کرد: ما اخیراً بخشی از صفحه اصول هوش مصنوعی خود را که متعهد به اجتناب از استفاده از این فناوری در کاربردهای بالقوه مضر مانند تسلیحات و نظارت بود، حذف کردیم. چرا این بخش را حذف نمودیم؟
در حالی که شرکت قابلیت دسترسی به تمام سوالات مطرح شده را فراهم نمیآورد، این فهرست تصویری از برخی از آنها ارائه میدهد. سوالاتی که کارکنان پرسیدند شامل این بود که چگونه اصول بهروزرسانی شده هوش مصنوعی اطمینان میدهد که ابزارهای شرکت «برای اهداف مضر مورد سوءاستفاده قرار نمیگیرند» و از مدیران خواستند که «لطفاً صراحتاً و بدون استفاده از زبان شرکتها و اصطلاحات حقوقی صحبت کنند.»
سومین سوال محبوب کارکنان این بود که چرا خلاصههای هوش مصنوعی اینقدر بد هستند.
در این سوال آمده بود: خلاصههای هوش مصنوعی از سوالات افتضاح هستند. آیا میتوانیم به پاسخ دادن به پرسشهایی که مردم واقعاً پرسیدهاند، برگردیم؟
این خبر را در گاردین ببینید.