شناسهٔ خبر: 76105032 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: آنا | لینک خبر

استرالیا از قوانین قدیمی خود برای کنترل هوش مصنوعی استفاده می‌کند

استرالیا با تکیه بر قوانین قدیمی، راهبردی محتاطانه برای مدیریت خطرات هوش مصنوعی برگزیده است. دولت این کشور به جای تدوین قانون مستقل، چارچوب‌های حقوقی موجود را ابزار اصلی کنترل فناوری‌های نوین قرار داده است. برخی کارشناسان هشدار می‌دهند این رویکرد ممکن است استرالیا را به پیرو سیاست‌های دیگر قدرت‌های جهان در عرصه هوش مصنوعی تبدیل کند.

صاحب‌خبر -

به گزارش خبرگزاری آنا؛ برنامه ملی هوش مصنوعی استرالیا نشانه‌ای از بازتعریف رویکرد این کشور در رقابت جهانی فزاینده در حوزه هوش مصنوعی است. بیش از یک سال انتظار می‌رفت که استرالیا همانند اروپا به تدوین قانون اختصاصی هوش مصنوعی با الزامات سختگیرانه، طبقه‌بندی اجباری ریسک و وظایف صریح برای توسعه‌دهندگان و بهره‌برداران اقدام کند.

دولت، اما راهبردی محتاطانه و تدریجی را برگزیده که بر قوانین موجود، نظارت هدفمند و تقویت توانمندی‌ها تکیه دارد و از اصلاحات جامع پرهیز می‌کند. این انتخاب تحت تأثیر فشار‌های سیاسی، اقتصادی و بین‌المللی شکل گرفته است. 

گروه‌های صنعتی و پلتفرم‌های بزرگ جهانی به شدت با مقررات‌گذاری زودهنگام مخالفت کردند و هشدار دادند که استرالیا ممکن است محدودیت‌هایی سخت‌تر و سریع‌تر از رقبا اعمال کند. وزارت خزانه‌داری با چشم‌انداز دستیابی به رشد ۱۰۰ میلیارد دلاری ناشی از پذیرش هوش مصنوعی، استدلال برای کند کردن سرعت مقررات‌گذاری را تقویت کرد. کمیسیون بهره‌وری نیز چارچوبی ارائه داد که بر توقف قوانین جدید، ارزیابی چارچوب‌های موجود و ایجاد پایگاه شواهد پیش از هر مداخله قاطع تأکید داشت. 

برنامه نهایی بازتاب این اجماع است. دولت به جای ایجاد رژیم مقرراتی تازه، تصمیم گرفته چارچوب‌های حقوقی «فناوری‌خنثی» استرالیا را به عنوان ابزار اصلی مدیریت خطرات هوش مصنوعی به کار گیرد. مفهوم «اصلاح مستمر» رویکردی تطبیقی را تقویت می‌کند نه نسخه‌ای تجویزی. 

تمرکز بر نهاد ایمنی و زیرساخت‌های توانمندساز 

مؤسسۀ تازه‌ تأسیس ایمنی هوش مصنوعی در مرکز این راهبرد قرار دارد. مأموریت این نهاد تحلیلی است نه اجرایی؛ شناسایی خطرات نظام‌مند نوظهور، آزمون فرضیات، مشاوره به وزرا و ترسیم شکاف‌های میان قوانین موجود و واقعیت‌های عملی. این مؤسسه حلقه اتصال میان مرحله سبک‌دست کنونی و حرکت احتمالی به سوی مقررات سخت‌تر خواهد بود. ارزش آن به استقلال تحلیلی، توانایی در اطلاع‌رسانی به تصمیم‌گیری ملی و ارتقای خطرات هوش مصنوعی از سطح فنی به چالش حکمرانی کلان اقتصادی وابسته است. 

اولویت‌های عمیق‌تر برنامه بر توانمندسازی متمرکز است. گسترش زیرساخت‌های چند میلیارد دلاری مراکز داده، ظرفیت محاسباتی پیوندخورده با انرژی‌های تجدیدپذیر، توسعه نیروی کار ملی و حمایت ساختاری از پذیرش تجاری بخشی از این اهداف است. هدف آن است که استرالیا توان داخلی کافی برای حضور مؤثر در اکوسیستم‌های جهانی هوش مصنوعی داشته باشد و صرفاً به مدل‌ها و ظرفیت‌های خارجی وابسته نباشد. این تأکید بر توانمندسازی همچنین زمینه جذب سرمایه‌گذاری بلندمدت شرکت‌های فناوری جهانی را فراهم می‌کند. 

با این حال، اتکا به قوانین موجود خطرات ساختاری به همراه دارد. بسیاری از چارچوب‌های حقوقی استرالیا بر تصمیم‌گیری انسانی، فرآیند‌های شفاف و خطوط روشن مسئولیت بنا شده‌اند. سامانه‌های هوش مصنوعی این فرضیات را با ابهام، مقیاس وسیع و امکان آسیب‌های پراکنده به چالش می‌کشند. تلاش برای مهار فناوری نوین در قالب‌های حقوقی قدیمی همانند وصله‌زدن زیردریایی مدرن با چوب تاریخی است؛ اقدامی نمادین، اما ناکارآمد. 

چالش‌های حقوق کار و نگرانی‌های اجتماعی 

نگرانی‌های وزیر پیشین اد هوسیک درباره مدل «واکنش ضربتی» همچنان مطرح است؛ یعنی پاسخ به آسیب‌ها به صورت واکنشی به جای بازطراحی معماری مقرراتی. تجربه بین‌المللی از جمله در انگلیس و سنگاپور نشان می‌دهد که مدل‌های ترکیبی و تطبیقی در نهایت جایگزین چارچوب‌های قدیمی می‌شوند. 

یکی از مهم‌ترین، اما کمتر برجسته‌شده‌ترین بخش‌های برنامه به حوزه کار مربوط است. دولت بر ضرورت بررسی نحوه تعامل تصمیم‌گیری الگوریتمی با حقوق کار، نظارت در محیط کار، زمان‌بندی و سامانه‌های مدیریت خودکار تأکید دارد. این حوزه‌ها احتمالاً نخستین و آشکارترین تأثیرات را بر شهروندان خواهند داشت. در سطح جهانی، به‌کارگیری هوش مصنوعی در مدیریت محیط کار یکی از سریع‌ترین محرک‌های نگرانی عمومی، نظارت مقرراتی و چالش‌های حقوقی بوده است.

منابع رسانه‌ای در ادامۀ گزارش خود می‌نویسند که تاریخ نشان داده که مردم پذیرش بسیاری دارند، اما مدیریت توسط ماشینی که توضیح نمی‌دهد، تحمل نمی‌کنند. تأخیر در این حوزه می‌تواند اعتماد عمومی را سریع‌تر از هر بحران جعل عمیق یا مباحث انتزاعی «هوش مصنوعی پیشرفته» فرسایش دهد. 

سخنرانی وزیر صنعت و نوآوری و وزیر علوم تیم آیرز در مؤسسه لویی polished و منسجم بود، اما با حذف برخی موضوعات، تنش اصلی در رویکرد استرالیا را آشکار کرد. او هوش مصنوعی را عمدتاً به مثابه فرصت صنعتی، اقتصادی و ملت‌سازی معرفی کرد؛ رویکردی درست، اما ناکامل. آنچه گفته نشد به همان اندازه اهمیت دارد. 

خطر وابستگی و ضرورت حاکمیت فناورانه 

آیرز تصمیم به پرهیز از قانون مستقل هوش مصنوعی را واقع‌گرایی عمل‌گرایانه معرفی کرد، اما واقعیت عمیق‌تر آن است که اتکا به قوانین قدیمی قماری ساختاری محسوب می‌شود. او توضیح نداد که استرالیا چگونه قصد دارد خطرات نظام‌مند را که همزمان حوزه‌های حریم خصوصی، رقابت، حقوق کار، امنیت ملی و سلامت دموکراسی را دربرمی‌گیرند مدیریت کند. همچنین به این نکته نپرداخت که رویکرد سبک‌دست امروز ممکن است در آینده به آشفتگی مقرراتی منجر شود. 

آیرز با تأکید بر تاب‌آوری، عدالت و «فرصت برابر» سخن گفت، اما استرالیا همچنان در معرض تبدیل شدن به پیرو سیاست‌های دیگران در نظم جهانی هوش مصنوعی است. هیچ سخنی درباره چالش وابستگی به ظرفیت‌های محاسباتی، مدل‌ها یا استاندارد‌های ایمنی خارجی مطرح نشد. همچنین اشاره‌ای به این واقعیت نبود که تعویق مقررات در حالی که ایالات متحده، اتحادیه اروپا، انگلیس و سنگاپور سرعت می‌گیرند، خطر گرفتار شدن استرالیا در چارچوب‌های تدوین‌شده توسط دیگران را افزایش می‌دهد. 

تأکید آیرز بر رشد اقتصادی ناشی از هوش مصنوعی به خطرات نظام‌مند تصمیم‌گیری الگوریتمی مبهم، نظارت پراکنده و بار سنگین حکمرانی بر نهاد‌هایی که برای پیچیدگی‌های عصر هوش مصنوعی طراحی نشده‌اند نپرداخت. این مسائل فنی نیستند بلکه به معنای شکل‌دهی به حاکمیت ملی‌اند. در نهایت، آیرز استدلال سیاسی برای برنامه را ارائه کرد، اما استدلال راهبردی علیه سهل‌انگاری همچنان باقی است: انعطاف بدون مقصد مشخص تفاوتی با سرگردانی ندارد و سرگردانی در شکاف فناورانه سریع‌التنگ، هزینه‌ای است که کشور‌ها توان پرداخت آن را ندارند. استرالیا ناگزیر است به توسعه هوش مصنوعی بومی و مستقل روی آورد تا از عقب‌ماندگی دوباره جلوگیری کند. 

انتهای پیام/