شناسهٔ خبر: 71315838 - سرویس علمی-فناوری
نسخه قابل چاپ منبع: حوزه | لینک خبر

هوش مصنوعی و قانون؛ آیا ربات‌ها می‌توانند ضامن باشند؟

اگر هوش مصنوعی مرتکب جرم شود، چه کسی مجازات خواهد شد؟ آیا بین خطای عمد و خطای غیرعمد تفاوت است؟ این سوالی است که با پیشرفت سریع هوش مصنوعی، ذهن بسیاری را به خود مشغول کرده است و در این مطلب به بررسی آن خواهیم پرداخت.

صاحب‌خبر -

به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامه‌ها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه پنجم خواهیم پرداخت.

مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.

در این برنامه می‌خواهیم موضوع بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی را به بحث و گفتگو بنشینیم.

در برنامه‌های گذشته عرض کردیم که هوش مصنوعی تکنولوژی است که عملکردی شبیه به انسان و یا حتی فراتر از انسان پیدا می‌کند و غالباً به عنوان شاخه‌ای از علوم کامپیوتر شناخته می‌شود، با توجه به گسترش و کاربردهای فراوان آن می‌طلبد که جایگاه فقهی و حقوقی آن را مورد بحث و گفتگو قرار دهیم.

همچنین گفتیم که ضرر و زیان گاهی منتسب به یک یا چند عامل به طور مستقیم است که به آن عامل مباشر و یا یک یا چند عامل غیرمستقیم است که به آن سبب گفته می‌شود. هوش مصنوعی را از جهت فعالیت‌های شبیه به انسان به دو دسته‌ی قوی و ضعیف تقسیم کردیم و گفتیم که هوش مصنوعی قوی وجود خارجی نداشته و هوش مصنوعی ضعیف در صورت ارتکاب جرم از جهت فقهی و حقوقی ضامن نیست.

درباره‌ی شخصیت مستقل حقیقی و یا حقوقی سیستم‌های هوش مصنوعی بحث و گفتگو کردیم و گفتیم از آنجا که نگاه ما به هوش مصنوعی متفاوت است، بسته به نگاه ما اعطای شخصیت به هوش مصنوعی متفاوت خواهد بود.

درباره‌ی جرایم عمد هوش مصنوعی هم صحبت کردیم که در صورت ارتکاب مجازات متوجه چه کسی است؟ هوش مصنوعی یا مالک آن؟ از نظر فقهی چون اراده و اختیار در هوش مصنوعی که حاصل آن قصد و نیّت است رخ نداده است، لذا مجازات متوجه آن نیست، اما از جهت حقوقی بیان شد که اگر مالک آن ربات قصد تخریب داشته باشد، از باب أقوی بودن سبب از مباشر، سازنده‌ی آن مجرم است و در صورت عدم قصد مالک نسبت به تخریب مباشر مجرم شناخته می‌شود.

پیرامون این موضوع صحبت کردیم که آیا سیستم‌های هوش مصنوعی می‌توانند جرایم مبتنی بر غفلت را مرتکب شوند یا خیر؟ صحبت کردیم که از نظر فقهی در هوش مصنوعی ضعیف نمی‌توان جرایم مبتنی بر غفلت را به آن‌ها نسبت داد، چون عمدی در کار نیست و عمد با غفلت ارتباط مستقیم دارد، اما از نظر حقوقی بررسی کردیم که اگر بتوانیم به این سه سؤال جواب مثبت دهیم می‌توان به سیستم‌های هوش مصنوعی جرایم مبتنی بر غفلت را نسبت داد. این‌که آیا ربات داده‌ها را داشته ولی اشتباه در تحلیل کرده باشد، آیا هوش مصنوعی ظرفیت عمومی آگاهی یافتن از داده‌های واقعی را داشته یا خیر؟ و این‌که اگر فرد متعارفی را با هوش مصنوعی مقایسه کنیم، در چنین شرایطی چه تصمیمی می‌گیرد؟

مجری: استاد عندلیب، ما در بحث حقوقی موضوعی با عنوان جرایم بدون تقصیر داریم؛ نظر شما درباره‌ی ارتکاب جرایم بدون تقصیر در سیستم‌های هوش مصنوعی چیست؟

- آقای عندلیب

در خصوص جرایم بدون تقصیر، حقوقدانانی که در بحث‌های هوش مصنوعی بحث کرده‌اند، مثلی که می‌زنند به هواپیماها و پهپادهای بدون سرنشین است. در حقیقت جرایم بدون تقصیر شکل تکامل یافته‌ی مسئولیت مطلق است. یعنی ما یک دیدگاهی به نام مسئولیت مطلق در عالم حقوق داریم که مسئولیت مطلق می‌گوید ما صرف اثبات رابطه‌ی سببیت بین رفتار مجرمانه و نتیجه‌ی آن با مرتکب برای تحمیل مجازات را کافی می‌دانیم، یعنی باید صرفاً رابطه‌ی سببیت باشد. نتیجه‌ی این حرف چیست؟ این‌که ما دیگر نیازی به عنصر سوءنیت نداریم، نیازی به اثبات تقصیر نداریم، بلکه فقط نیاز به اهلیت جزایی داریم که آن عبارت از عقل و بلوغ است.

در آغاز قرن هجدهم، حقوق کامن لای انگلیس به این نتیجه رسید که ما یک‌سری جرایم داریم که نه سوءعمد و سوءنیت در آن‌ها لازم است و نه غفلت لازم است، بلکه این جرایم که ابتدا نام آن را شبه‌جرم گذاشتند، این جرایم، جرایم علیه رفاه و نظم عمومی است که این مباحث در ایالات متحده‌ی ‌آمریکا و بعد هم در کشورهای دیگر اتحادیه‌ی اروپا پذیرفته شد و این موضوع آمد که ما یک‌سری جرایمی بدون تقصیر داریم.

جرایم بدون تقصیر چیست؟ جرایم بدون تقصیر یک سطح بالاتر از انجام وظیفه است. یعنی برای این‌که موضوع را بررسی کنیم، باید فرد را ملزم بدانیم که تمام قوانین سختگیرانه را دنبال کرده باشد و اطمینان پیدا کرده باشد که مرتکب هیچ جرمی نشده است. یعنی ما یک وضعیت بسیار محتاطانه بر شهروندان‌مان باید در نظر بگیریم و بگوییم شما که می‌خواهید این رفتار را انجام دهید باید از تمام قوانین اطلاع پیدا کنید، از تمام مقررات اطلاع پیدا کنید و وقتی می‌خواهید این کار را انجام دهید باید ببینید که این رفتار تو اولاً متعارف بوده است، ثانیاً معقول بوده است و ثالثاً درصدی احتمال این‌که این کار شما اشتباه و جرم باشد را نداده باشید. این قضیه خیلی خیلی سختگیر است و هدف قانون‌گذاری کیفری هم این است که می‌گوید برای این‌که ما یک عدالت سختگیرانه را در جامعه مدنظر داشته باشیم که مجرمان بالقوّه هم بترسند، یعنی یک نگاه پیشگیرانه است. برای این‌که مجرمان بالقوّه هم باید حواس‌شان باشد که ممکن است سوء‌نیت و تقصیری نداشته باشند ولی چون تمام دقت‌ها را انجام نداده‌اند و تمام قوانین را نخوانده‌اند، لذا مقصر باشند و مسئولیت داشته باشند. به خاطر همین در عالم حقوق می‌گویند جهل به قانون رافع مسئولیت نیست و به همین دلیل الزام می‌کنند که شما باید از تمام قوانین اطلاع داشته باشید.

در جرایم مبتنی بر غفلت کافی بود اثبات شود که رفتار این مرتکب متعارف بوده است، اما در جرایم بدون تقصیر باید اثبات شود که این فرد تمام اقدامات معقول و تمام آگاهی‌های قانونی را داشته است، یعنی باید علاوه بر این‌که معمول جامعه را در نظر می‌گیریم، معقول را هم در نظر بگیریم. بعداً اینجا یک شاخصی مطرح می‌شود که آبجکتیو یا سابجکتیو شاخصه است، یعنی شاخص نوعی یا شاخص شخصی که من در ادامه‌ی مباحث توضیح خواهم داد.

مجری: متشکرم. جناب آقای سخاوتیان، جرایم بدون تقصیر در فقه به چه معناست؟ آیا می‌توان آن‌ها را منسوب به هوش مصنوعی کرد یا خیر؟

- آقای سخاوتیان

با توجه به توضیحاتی که برادرمان جناب استاد عندلیب فرمودند و مباحث مربوط به جرایم بدون تقصیر توضیح داده شد، اگر حقیقتش را بخواهیم بررسی کنیم، چنین مباحثی از مسائل نو است، یعنی تقریباً می‌توان گفت که خیلی سخت می‌توان داخل بحث‌های فقهی چنین چیزی را پیدا کرد، کمااین‌که در توضیحاتی که داده خواهد شد، می‌بینیم که هر نوع جرمی صورت می‌گیرد، یک نوع به مکلف برمی‌گردد و آن مکلف در آنجا حداقل یک نوع تقصیری دارد. فقط می‌خواهیم ببینیم این تقصیری که ما در فقه می‌گوییم، با آن چیزی که برادران ما در حقوق می‌گویند چه تفاوت‌هایی دارد و اگر متوجه این تفاوت‌ها شویم خوب است. ظاهراً در اینجا دارد یک اشتراک لفظی اتفاق می‌افتد و باعث می‌شود که دو تا مفهوم جدا از هم با هم خلط شوند.

من قبل از این‌که به این بحث بپردازم یک سؤال کوچک مطرح می‌کنم که اصلاً چه چیزی در فقه موضوعیت دارد؟ آنچه که در فقه موضوعیت پیدا می‌کند، افعال اختیاری مکلف است. یعنی در اینجا یک مجموعه افعالی از مکلف سر می‌زند که ما به دنبال فهمیدن احکام الهی نسبت به آن هستیم که واجب، حرام، مباح، مکروه یا مستحب است. در اینجا چیست؟ ما به دنبال این هستیم. وقتی به افعال نگاه می‌کنیم، هر فعلی که سر می‌زند در این فضا قابل تعریف است؛ یا شخص عمداً این کار را انجام داد و یا عمداً انجام نداد. یعنی فعل را بر اساس این تعریف می‌کنیم. در همان حالتی که جناب آقای عندلیب فرمودند که در افعال بدون تقصیر فقط خود فعل موضوعیت داشت و برای این‌که در آنجا برای آن برائت جاری کنیم باید احتیاط می‌کرد و تمام جوانب را می‌سنجید، ما وقتی به اینجا نگاه می‌کنیم می‌بینیم که سه حالت داریم؛ حالت اول: شخص عمداً کاری را انجام داد. حالت دوم: شخص در رصد و شرایط آن کوتاهی کرد. حالت سوم: در شرایطش کوتاهی نکرد ولی باز این تخلف صورت گرفت. در اصطلاح به حالت اول در فقه، عمد می‌گوییم که جرایم عمدی است. به آن حالتی که شخص اصلاً کوتاهی نکرد ولی باز هم جرمی رخ داد، همه‌ی شرایط را سنجید ولی دیگر در اختیارش نبود و جرمی رخ داد، در اینجا قاصر می‌گوییم، در آنجایی که شخص کوتاهی کرد، مقصر می‌گوییم.

اگر شخص قاصر باشد، خب تمام تلاشش را کرده و جرمی ندارد، حالا این‌که ضامن هست یا نیست، بحث بعدی است که باید در جای دیگر صحبت شود، اگر عمدی باشد که جرم هم دارد. حالا در آنجایی که مقصر می‌شود دو حالت دارد؛ گاهی کوتاهی در فعل است که برادران ما در حقوق تا تقصیر می‌گویند، این قسم را در ذهن دارند. در فعل کوتاهی کرده است. وقتی بدون تقصیر می‌گویند، در فعل کوتاهی نکرده، چون در اختیارش هم نبوده است. اما وقتی که ما می‌گوییم، گاهی اوقات مراد ما از تقصیر در فعل است، گاهی اوقات مراد ما از تقصیر در علم است. شخص نرفته احکام را یاد بگیرد، او هم مقصر است. نه این‌که چون نماز نخوانده مقصر است، برای این‌که احکام را یاد نگرفته است، مقصر است. اینجا تقصیر و کوتاهی از علم است. حالا بحث در اینجا طولانی می‌شود که آیا تقصیر در علم یک امر تبعی و یا امر مستقل است، این‌ها حرف‌های بعدی است که داخل مباحث اجتهاد و تقلید به صورت کامل بحث می‌شود.

مطلب اینجا است که چون این شخص در تقصیر و کوتاهی مربوط به یادگیری بود، در عمل هم دچار کوتاهی شد. شخص می‌گوید که؛ من نخواستم این اتفاق بیافتد، نمی‌دانستم. می‌گوییم: چون خودت نرفتی یاد بگیری در اینجا مقصر هستی. یعنی باز هم در آنجا تقصیر اتفاق افتاد. به خاطر همین در ذهن من و شما که در فضای عرفی هستیم و یا بسیاری از مردم که با این فضا آشنایی دارند و فقه هم بیشتر با این فضا تطبیق پیدا می‌کند، در ذهن ما این است که در این جرایم بدون تقصیر هم خودش مقصر است، می‌خواست یاد بگیرد و یا احتیاط کند و یا می‌خواست تمام شرایط را بسنجد. این ادبیات فقهی غیر از آن ادبیات حقوقی است. ما وقتی تقصیر می‌گوییم اعم از علم و فعل است، در حقوق وقتی از تقصیر می‌گویند، مراد فعل است. باید به این دو مورد دقت کنیم.

ان‌شاءالله در بخش بعدی صحبت به این می‌پردازیم که اصلاً هوش مصنوعی شرایط علم را دارد یا ندارد؟ اگر شرایط علم را داشته باشد یک حرف می‌شود و اگر نداشته باشد یک حرف دیگری می‌شود.

مجری: متشکرم. جناب آقای دکتر عندلیب، با توجه به توضیحاتی که بیان کردید آیا هوش مصنوعی می‌تواند مرتکب جرایم بدون تقصیر شود یا خیر؟

- آقای عندلیب

ما برای این‌که بررسی کنیم و ببینیم که امکان ارتکاب جرایم بدون تقصیر از سوی سیستم‌های دارای هوش مصنوعی ممکن است و تحقق می‌پذیرد یا خیر، باید به سه سؤال پاسخ دهیم: آیا سیستم‌های دارای هوش مصنوعی عنصر مادی جرم را به شکل کامل مرتکب شده است یا خیر؟ دوم این‌که؛ آیا سیستم دارای هوش مصنوعی قابلیت تشکیل آگاهی و دسترسی به داده‌ها را به صورت کامل داشته است یا نه؟ سوم هم این است که؛ سیستم‌های دارای هوش مصنوعی ظرفیت عمومی عقلانیت و اقدامات معقول را دارند یا نه؟

ما باید این سه سؤال را بررسی کنیم. من برای این‌که مخاطب عزیزمان با مسئله انس بیشتری پیدا کند یک مثال می‌زنم؛ دو نفر نقشه‌ی سرقت از یک بانک را طراحی می‌کنند. خودرویی که برای سرقت استفاده می‌کنند، خودروی بدون راننده مبتنی بر هوش مصنوعی است. خودرو پس از انجام سرقت که سارقین سوار خودرو می‌شوند، از حد سرعت مجاز فراتر می‌رود و مرتکب جرم ایراد صدمه‌ی بدنی غیرعمدی و یا قتل غیرعمدی بر اثر تصادف رانندگی می‌شود. در اینجا بحث پیش می‌آید که در اینجا مسئولیت بدون تقصیر متوجه کیست؟ اگر سارقین خودرو را به نحوی طراحی کرده باشند، یعنی خود سارقین طراح هوش مصنوعی خودرو هم باشند که این خودرو دچار اشکال شده و سرعت بسیار بالایی رفته است، یعنی اصلاً این را برای سرقت طراحی کرده‌اند که با سرعت بسیار بالایی برود که باعث شود یک نفر آسیب ببیند. خب در اینجا دقیقاً خود سارقین مقصر هستند، ولی اگر طراحی آن‌ها درست بود و خود این ماشین دچار یک اشتباه در تصمیم شد و یا اقدامات معقول را انجام نداد. یعنی بر اساس تصمیمی که خود این خودرو گرفت و آژیر پلیس را شنید، سرعتش را فراتر برد و نهایتاً به یک تصادف منجر شد که صدمه‌ی بدنی به یک فرد وارد شد که در عنوان کیفری صدمه‌ی بدنی غیرعمدی یا قتل غیرعمدی می‌گوییم. اینجا باید ببینیم که ملاک چیست؟ من عرض کردم که باید ببینیم پیش‌بینی شخصی در اینجا ملاک است که به آن سابجکتیو می‌گویند و یا پیش‌بینی نوعی ملاک است که آبجکتیو است.

تفاوت این‌ها چیست؟ تفاوت این است که اگر پیش‌بینی شخصی را در نظر بگیریم، یعنی باید ببینیم این سیستم دارای هوش مصنوعی در آن شرایط درست یا غلط تصمیم گرفته است؟ ولی اگر نوعی ملاک شد، یعنی باید ببینیم که انواع دیگر این سیستم‌های دارای هوش مصنوعی هم این کار را انجام می‌دادند یا نه؟ ما این مسئله را در فقه هم داریم که ملاک نوع یا شخص فرد است. در عسر و حرج هم این بحث را می‌کنند.

- آقای سخاوتیان

بحث ظن نوعی و ظن شخصی است.

- آقای عندلیب

این هست، در عسر و حرج هم این هست که می‌گویند عسر و حرج نوعی ملاک است یا عسر و حرج نسبت به این شخص خاص ملاک است؟ این بحث در آنجا مطرح می‌شود.

در اینجا باید این موضوع مطرح شود و به اثبات برسد، اگر به اثبات رسید که ما می‌توانیم به این پرسش‌های سه‌گانه پاسخ دهیم و اثبات کنیم که این سیستم دارای هوش مصنوعی عقلانیت کافی‌اش را به کار نگرفته است. تمام اقدامات معقول را به کار نگرفته است و آن سارقین هم در این قضیه تقصیری نکرده‌اند. آن جرم سرقت در جای خودش بماند و زمانی مخاطب ما نگوید که پس آن جرم سرقت چه شد؟ در آن جرم سرقت که قطعاً آن دو نفر سارق مقصر هستند، ولی می‌گوییم در این قضیه... . این هم یک پرونده‌ی واقعی است. مثال‌هایی که من سعی می‌کنم عرض کنم، از پرونده‌های واقعی است که در کشورهای اروپایی یا آمریکایی اتفاق افتاده و این‌ها محل بحث حقوقدانان شده است و حالا ما در فضای حقوقی خودمان چگونه می‌توانیم آن‌ها را تحلیل کنیم و باید ببینیم بحث‌های فقهی‌مان در اینجا چه آورده‌ای را برای ما خواهند داشت.

مجری: متشکرم. آقای دکتر سخاوتیان، در خدمت شما هستم، بحث ما در برنامه‌ی گذشته ناقص ماند، بفرمایید که اصلاً این سیستم‌های هوش مصنوعی با توجه به توضیحاتی که شما دادید، آیا مرتکب جرایم بدون تقصیر می‌شوند یا خیر؟

- آقای سخاوتیان

ما در قسمت قبلی برنامه عرض کردیم که تقصیر را در دو ساحت می‌توانیم بررسی کنیم: یکی تقصیر در فعل است که کوتاهی در فعل کرده است، دیگری هم تقصیر در علم است که کوتاهی در علم کرده و نرفته یاد بگیرد. وقتی صحبت از تقصیر در فعل شد، مسلّم است که اصلاً در این مسئله کوتاهی در فعل جایی ندارد، فعلی صورت گرفته و او در آن کوتاهی هم نکرده بود. یعنی در این نوع از مسائلی که جناب آقای دکتر عندلیب هم کامل و قشنگ توضیح دادند، اصلاً کوتاهی در فعل نیست. پس ما اگر بخواهیم بگوییم که آیا هوش مصنوعی در اینجا جرمی دارد؟ خب اصلاً اتفاقی نیافتاده است. دومین مسئله‌ای که در اینجا مطرح است، بحث تقصیر در علم است. علم در کجا اتفاق می‌افتد؟ در جایی اتفاق می‌افتد که آن شیء صلاحیت ملکه‌ی علم را داشته باشد. ما در جلسات گذشته صحبت از این داشتیم که اصلاً ملکه چیست و ملکه‌ی اختیار در کجا می‌آید؟ ملکه‌ی فهم، شعور و هوشمندی در کجا می‌آید؟ قبلاً صحبت از این موضوع شده بود و لذا دیگر به توضیح بحث ملکه نمی‌پردازم. فقط این را می‌گویم که هوش مصنوعی ملکه‌ی علمیت را ندارد، با توجه به مبانی که قبلاً صحبتش را کرده‌ایم، جز این‌که بگوییم هوش مصنوعی قوی غیرمستقل شکل گرفته که آن بحث جدایی دارد، ولی فعلاً که نگاه می‌کنیم، هم در هوش مصنوعی ضعیف و یا هوش مصنوعی مستقل - که اصلاً از نظر ما امکان تحقق ندارد ولی هوش مصنوعی ضعیف فعلاً تحقق پیدا کرده است - می‌بینیم اصلاً ملکه‌ی علمیت در این وسیله‌ی هوشمند موضوعیتی ندارد. ببینید مجموعه‌ای از داده‌ها و دیتاها در آن هست، روابط و الگوریتم هست، ولی این دیتا به مرحله‌ی علمیت نمی‌رسد. در فضای هوش مصنوعی چه اتفاقی می‌افتد؟ اولین اتفاقی که هست این است که دیتاها طبقه‌بندی می‌شوند و اینفورمیشن می‌شوند که ما به اطلاعات ترجمه کرده‌ایم. در مرتبه‌ی بعدی این اینفورمیشن‌ها درک می‌شوند که Knowledge در فضای غربی‌ها می‌شوند. ما در کشور خودمان Knowledge را به دانش و علم معنا کردیم. هوش مصنوعی نمی‌تواند به مرتبه‌ی Knowledge وارد شود. چرا؟ چون آن ملکه‌ی ادراک را ندارد. ملکه‌ی ادراک به این معنا نیست که من صرفاً این‌ها را لمس کنم و بفهمم. این‌که جمع‌آوری اطلاعات است که داده‌ها و اطلاعات را جمع‌آوری کرده‌ام، ولی آنچه که ادراک می‌کند یک حقیقت دیگری است که مُدرِک هست و چون این ملکه‌ی ادراک را ندارد، پس ملکه‌ی علمیت را هم نخواهد داشت. وقتی که ملکه‌ی علمیت هم ندارد، خودبه‌خود تقصیر در این مرتبه هم ندارد.

اما این مرتبه را که صحبت کردیم، باید یک مرتبه قبل‌تر برویم که یا کاربر و یا طراح است. باید به سراغ آن مرتبه‌ی قبلی برویم. یعنی در اینجا مخاطب ما هوش مصنوعی نیست، مخاطب ما در این نوع از جرایم یا کاربر -شاید هم کاربر تقصیری نداشته باشد و کوتاهی نکرده باشد - و یا طراح آن است. من تعمداً از واژه‌ی برنامه‌نویسی استفاده نمی‌کنم، چون وقتی صحبت از برنامه‌نویسی می‌شود، به معنای سیستم عامل‌های ساده در نظر گرفته می‌شود، در حالی که در هوشمند ما بهینه‌سازی داریم و به همین دلیل تعمداً بهینه‌سازی می‌گویم. ما باید به سراغ آن بهینه‌ساز و طراح برویم و در آنجا بحث می‌شود. آیا آنجا تقصیر در فعل دارد یا ندارد؟ تقصیر در علم دارد یا ندارد؟ مثلاً شخصی می‌گوید که من در فعلش کوتاهی نکردم. می‌گوییم همین که در علمش کوتاهی کردی و جلوی آن جرم گرفته نشده است. «الامتناع بالإختیار لا ینافی الإختیار»، شما در این وسط دست به کاری زده‌اید، یعنی در عمل فعل خودت یک کار امتناعی انجام دادی و دیگر در اختیار شما نیست، چون خودت عمداً باعث شدی که در اختیار تو نباشد، پس در اینجا مجرم هستی. یعنی عملاً این خطاب جرم به سراغ مرتبه‌ی قبل می‌رود که کاربر یا طراح است.

مجری: متشکرم. جناب آقای دکتر عندلیب، آقای سخاوتیان کلاً قائل به عدم جرم‌انگاری برای سیستم‌های هوش مصنوعی در جرایم بدون تقصیر هستند، می‌خواستم نظر شما را هم بدانم.

- آقای عندلیب

آن‌طور که من در قسمت قبلی عرض کردم، جرایم بدون تقصیر مبتنی بر اثبات سه تا بحث بود که آیا این عنصر مادی جرم را به شکل کامل مرتکب شده است یا نه؟ تشکیل آگاهی برای او اتفاق افتاده است یا نه؟

- آقای سخاوتیان

ما دقیقاً در همین‌جا نکته داشتیم و گفتیم که ملکه‌ی آگاهی برای آن نیست، وقتی که نیست پس همیشه جواب منفی می‌شود.

- آقای عندلیب

بحث این‌که عقلانیت برای او متصور است یا نه؟ یعنی اثبات اقدامات معقول را داشتیم.

- آقای سخاوتیان

عذر می‌خواهم که وسط مباحث شما وارد می‌شوم، چون دقیقاً نکته به نکته مطرح می‌شود و قشنگ هم هست. ما وقتی از عقلانیت می‌گوییم، عقلانیتی که ما در کشور خودمان می‌فهمیم غیر از عقلانیت غربی است. راشیونال که در آنجا مطرح می‌شود، عقل ابزاری است، در فقه و حقوق ما که عقلانی می‌گوییم، یک چیزی فراتر از عقل ابزاری است و نباید این را در اینجا خلط کنیم.

- آقای عندلیب

می‌دانید در قانون‌ها و در سیستم حقوقی کشور ما فعلاً تقنین برای هوش مصنوعی نداریم و بنابراین ناچاریم به کلیات حقوق جزا مراجعه کنیم.

ببینید من الان می‌خواهم با هم ماده‌ی ۱۴۵ قانون مجازات را مرور کنیم و ببینیم که از این ماده چه استفاده‌ای می‌شود؟ ما در عالم حقوق جرایم را تقسیم‌بندی می‌کنیم: عمد، شبه‌عمد، خطای محض. یعنی ما می‌گوییم که سه جرم امکان‌پذیر است که یا عمدی، یا شبه‌عمد و یا خطای محض است.

قانون‌گذار در ماده‌ی ۱۴۵ قانون مجازات اسلامی مصوب ۹۲ در مورد تحقق جرایم غیرعمد می‌گوید که منوط به احراز تقصیر مرتکب است. پس قانون‌گذار دارد بحث تقصیر را در جرایم غیرعمد مطرح می‌کند. در جنایات غیرعمدی اعم از شبه‌عمدی و خطای محض، مقررات کتاب قصاص و دیات اعمال می‌شود. این ماده تبصره هم دارد که می‌گوید تقصیر اعم از بی‌احتیاطی و بی‌مبالاتی است. اینجا به همان جرایم مبتنی بر غفلتی که حقوقدانان غربی می‌گویند برمی‌گردد که ما اسمش را بی‌احتیاطی و بی‌مبالاتی گذاشتیم. مسامحه را هم دارد. ببینید این مسامحه به جرایم بدون تقصیر نزدیک می‌شود. مسامحه یعنی چه؟ یعنی در اطلاع یافتن از قوانین و اقدامات معمول کوتاهی کرده است. غفلت که دقیقاً همان جرایم مبتنی بر غفلت است که قانون‌گذار ایران می‌گوید. عدم مهارت، عدم رعایت نظامات دولتی و مانند آن‌ها را هم مطرح می‌کند که حسَب مورد از مصادیق بی‌احتیاطی یا بی‌مبالاتی محسوب می‌شود.

بند پ ماده‌ی ۲۹۱ هم شبه‌عمد را این‌طور تعریف می‌کند: هر گاه جنایت به سبب تقصری مرتکب واقع شود، مشروط بر این‌که جنایت واقع شده یا نظیر آن مشمول تعریف جنایت عمدی نباشد.

ببینید قانون‌گذار ما حرف از تقصیر می‌زد، اما در ماده‌ی ۱۴۵ چه می‌گوید؟ می‌گوید: بی‌مبالاتی، بی‌احتیاطی، مسامحه. شاهد مثال من روی مسامحه است. چون ما می‌خواهیم از ظرفیت‌های حقوقی خودمان استفاده کنیم و یک تقنینی در حوزه‌ی هوش مصنوعی داشته باشیم. نمی‌توانیم کلیات حقوق جزا را نادیده بگیریم. در اینجا مسامحه می‌گوید. آیا مسامحه همان عدم تقصیر است یا نه؟

در مورد این باید بحث کنیم و این‌که ما سیستم‌های دارای هوش مصنوعی را مسئول ندانیم، این اولین بحث ما است. یعنی این جلسات تشکیل شده برای این‌که ما مسئولیت را تشخیص دهیم. به نظرم می‌رسد که با این شرایط سه‌گانه‌ای که گفتیم باید با کلیات تطبیق دهیم و اگر شرایط احراز شد، مسئولیت را جاری بدانیم.

در فضای حقوق غربی در واقع اسم این مجرمین را مجرمین خردمند ماشینی می‌گذارند. یعنی آن نحوه از محاسبات و عقلانیت را برای این سیستم‌ها قائل هستند و کأنه او مثل یک انسان خودش تجزیه و تحلیل می‌کند. البته باید داده‌هایش را بررسی کنند که ببینند داده‌های درستی به این ماشین داده شده یا نه؟ اگر داده‌ها غلط باشد که خب او تقصیری ندارد و باز بحث کارشناسی پیش می‌آید که تعیین درصد تقصیر کند. ولی اگر داده‌ها کامل بود و این سیستم دارای هوش مصنوعی اقدامات معقول را انجام نداده است، بلکه بر اساس یک رفتار اشتباه و یک رفتار غلط بدون در نظر گرفتن اقدامات معقول در آن مثالی که ما زدیم سرعت بسیار غیرمجازی رفت و باعث ایراد صدمه‌ی بدنی غیرعمدی شد و یا باعث قتل غیرعمدی شد و بروز یک ضرری که در قالب مباحث کیفری مطرح می‌شود را انجام داد و یا بحث مسئولیت مدنی را در نظر بگیریم، چون یک بحث هم مسئولیت مدنی و ضمان است که آیا ضمان دارد یا ندارد؟ در اینجا باید این موضوع اثبات شود و به نظر می‌رسد... . البته چون ما در آغاز پدیده‌ی هوش مصنوعی هستیم و در کشور ما هم نمادهای خارجی و هم آن محصولات هوش مصنوعی فعلاً به این سطح نیامده و همچنین حوزه‌ی تقنین در این زمینه هنوز وارد نشده، ما هم‌چنان با این ابهامات مواجه هستیم و باید یک مقداری این بحث‌ها در واقع درآمد حساب شود و پیش‌زمینه‌ای برای طرح این واقعیت باشد که چون این مسئله یک مسئله‌ی مستحدثه و امری نو است، تحولاتی که آن دارد طی می‌کند و در حال شدن است، این تحولات تأثیر به‌سزایی در مباحث حقوقی دارد ولی عرض می‌کنم که کلیات حقوق جزای ما و همچنین مباحث مسئولیت مدنی ما تا حدود زیادی کمک می‌کند، اما ما باید با یک مسئله‌ی مهم مواجه باشیم که هر چند ما تحلیل‌های حقوقی می‌کنیم و آن را با یک انسان شبیه‌سازی می‌کنیم، اما قوانین مختص به خودش نیاز دارد. یعنی ما اگر بحث‌های کیفری داریم، باید مجازات‌های متناسب با همین سیستم‌های هوش مصنوعی دیده شود. دقیقاً در اینجا دچار یک خلاء قانونی هستیم و اگر زود سیستم‌ها و سازمان‌ها و ساختارهای ما به فکر تقنین متناسب نیافتند یک‌دفعه با یک‌سری پدیده‌ها مواجه می‌شویم که خلاء قانونی داریم و در آن زمان دیر است. ما باید به صورت پیش‌دستانه و زودتر به سمت تقنین هوشمندانه برویم و یک تقنین هوشمندانه مبتنی بر مسائل هوش مصنوعی داشته باشیم. به نظر من ما باید تمام فروضی که امکان تحقق دارد را هم در نظر بگیریم، چون هوش مصنوعی در حال پیشرفت است، نمی‌توانیم دائم قانون‌گذاری داشته باشیم، ما باید یک قانون‌گذاری آینده‌پژوهانه داشته باشیم که بتوانیم ان‌شاءالله مباحث را بهتر پیش ببریم.

مجری: متشکرم. جناب آقای سخاوتیان، شما بیان کردید که چون اراده و تصمیم در سیستم‌های هوش مصنوعی وجود ندارد و لذا ما نمی‌توانیم آن‌ها را به عنوان مقصر در جرایم بدون تقصیر در نظر بگیریم. شاید برای بعضی از شنوندگان ما این سؤال پیش آید که این تجزیه و تحلیلی که خود هوش مصنوعی انجام می‌دهد، آیا مبتنی بر همان سازه‌ها، ادراکات و ملکه‌ی علم نیست و این هوش مصنوعی چگونه تجزیه و تحلیل می‌کند؟ تجزیه و تحلیلی که مبتنی بر هیچ ذهنیتی در مخاطب و انسان نیست.

- آقای سخاوتیان

اینجا یک بحث فلسفی دقیقی دارد و من برای این‌که ذهن مخاطبین نزدیک شود، یک مثالی را می‌زنم که در فضای هوش مصنوعی زیاد گفته می‌شود. البته برخی به این مثال‌ها جواب‌هایی داده‌اند و برخی هم دوباره اشکال و جواب‌هایی برای آن دارند و من نمی‌خواهم وارد تمام دامنه‌ی آن بحث‌ها شوم و فقط اصل مثال را می‌گویم و دوستان هم اگر خواستند در فضای مجازی و اینترنت فراوان است و می‌توانند تمام بحث‌هایش را هم بخوانند. یک مثالی مشهور به اتاق چینی است. تصور کنید به طرف اتاقی رفته‌اید که دو تا پنجره دارد، به شما می‌گویند که از این پنجره سؤال‌تان را بدهید، از آن پنجره جواب را دریافت می‌کنید، اما یک شرط دارد. شرطش چیست؟ شرطش این است که شما باید سؤالات‌تان را به چینی بنویسید. آن طرف داخل اتاق یک آقا یا خانمی نشسته و دو تا کتابچه دارد؛ کتابچه‌ی سوالات، کتابچه‌ی جواب‌ها. این آقا نه چینی بلد است و نه زبان دیگری بلد است که شبیه به چینی باشد. به او گفته‌اند که هر گاه این شکل آمد به این شکل وصل کن و جواب را بیرون بده. سؤال می‌پرسیم: شما سؤال را داده‌اید و جواب‌تان را گرفته‌اید و می‌بینید که جواب دقیقاً درست است. آن کسی که داخل اتاق بود و جواب را برای شما بیرون داد، فهمید که سؤال و جواب چیست یا نه؟ این اتفاق الان در هوش مصنوعی دارد می‌افتد، یک مجموعه‌ای از دیتاها و الگوریتم‌ها و روابطی که طراحی شده هستند، این روابط بین این اطلاعات و داده‌ها رابطه برقرار می‌کند، هر چه که شما بگویید در بیرون به شما جواب می‌دهد، اما خودش ادراک نمی‌کند که این جواب یعنی چه؟ مثلاً شما می‌گویید: ۲×۲؟ جواب می‌دهد: ۴. اما ادراک نمی‌کند که این ۴ یعنی چه؟ این اتفاق الان دارد می‌افتد. مسئله‌ای که هست این است که آیا هوش مصنوعی می‌تواند ادراک پیدا کند یا نه؟ این بحث‌های آینده است که آیا وقوع پیدا می‌کند یا نه؟ که من بارها و بارها تأکید کرده‌ام و گفته‌ام که به عنوان ادراکی مستقل از ادراک انسان محقق نمی‌شود ولی ادراک وابسته به ادراک انسان محقق می‌شود. این‌ها بحث‌های دیگری است.

خلاصه‌ی ماجرا؛ وقتی که ما این‌ها را در کنار هم نگاه می‌کنیم می‌بینیم آن ملکه‌ی علمی که در انسان هست، در هوش مصنوعی به عنوان یک موجود مستقل و جدا از انسان امکان تحقق ندارد. پس بسیاری از این جرایم که از آن‌ها صحبت می‌کنیم را نمی‌توانیم به آن منتسب کنیم، بلکه به کاربر یا بهینه‌ساز و طراح آن منتسب می‌شود.

حالا این توضیح را گفتیم، در ادامه‌ی صحبت برادرم، جناب آقای عندلیب، این نکته را هم اضافه کنیم؛ ما باید قبل از این‌که دچار بحران حقوقی شویم، از الان به فکر مباحث حقوقی آن باشیم. ما در گام نخست باید به دنبال حقوق داده‌ها و الگوریتم‌ها برویم. اصلاً باید یک نظام حقوقی مربوط به داده‌ها و الگوریتم‌ها را طراحی کنیم که در هر جایی نتوان هر الگوریتمی را طراحی کرد و یا هر الگوریتم ضروری را طراحی کنیم و یا اصلاً اجازه‌ی طراحی چه الگوریتمی را داریم و یا اجازه‌ی طراحی چه الگوریتمی را نداریم؟ از الان باید به سراغ تک تک این‌ها برویم و الّا چه بسا فردا خود فناوری به بازار می‌آید و آن زمان سؤال می‌شود که؛ از این فناوری استفاده کنیم یا نکنیم؟ آن فناوری طراحی شده و آمده است، یعنی آن الگوریتمی که نباید طراحی می‌شد، طراحی شده است.

مجری: اصلاً با مبانی ما سازگار هست یا خیر؟

بله. مثلاً شما ربات قاتل را فرض کنید، اصلاً من اجازه دارم چنین رباتی را طراحی کنم یا نه؟ چه بسا کسانی که به دنبال جرم هستند، رباتی را طراحی کنند، ربات هم هدف را به قتل می‌رساند، حالا سؤال در اینجا این است که در این میان قاتل کیست؟ ربات است یا آن کسی که آن را طراحی کرده است؟ دقیقاً تمام این بحث‌ها در اینجا هم می‌آیند که باید روی آن‌ها دقت کنیم.

مجری: بسیار متشکرم. بحث بسیار خوبی بود. ما در این برنامه پیرامون جرایم بدون تقصیر از نظر فقهی و حقوقی بررسی کنیم و از جهت فقهی گفتیم که هیچ‌گونه تقصیری متوجه سیستم‌های هوش مصنوعی نیست، چون هوش مصنوعی دارای ملکه‌ی علم و اختیار نیست، از نظر حقوقی هم بررسی کردیم که اگر بتوانیم به سه سؤال پیرامون جرایم هوش مصنوعی پاسخ دهیم، ممکن است که آن را مجرم بدانیم. این‌که گفتیم آیا همه‌ی عناصر مادی جرم را به شکل کامل دارا هست یا خیر؟ و این‌که آیا قابلیت دسترسی به تمام داده‌ها را دارد یا خیر؟ و این‌که آیا ظرفیت عمومی عقلانیت و اقدامات معقول را دارد یا خیر؟

مجری برنامه: مجید لاهیجانی امیری

تنظیم: محمد رسول صفری عربی