رامین منصف کسمائی
کارآموز کانون وکلا دادگستری،پژوهشگر روانشناسی حوزه جرم، حقوق پزشکی ، تجارت بینالملل و در آخر دانش آموز
10 یادداشت منتشر شدهمسولیت مدنی ناشی از هوش مصنوعی
ورود هوش مصنوعی به عرصه مسئولیت مدنی چالش های حقوقی نوظهوری ایجاد کرده است. با پیشرفت فناوری های مبتنی بر هوش مصنوعی مانند ChatGPT، سیستم های استخدام خودکار و الگوریتم های تصمیم گیر، پرسش های جدی درباره مسئولیت حقوقی این سیستم ها مطرح شده است. در حالی که قوانین سنتی مسئولیت مدنی عمدتا برای روابط بین انسان ها طراحی شده اند، امروزه با پدیده ای روبه رو هستیم که می تواند به طور مستقل تصمیم بگیرد، یاد بگیرد و حتی مرتکب خطا شود.
در حقوق ایران، هوش مصنوعی فاقد شخصیت حقوقی است. بر اساس قانون تجارت، فقط اشخاص حقیقی و حقوقی (شرکت ها) می توانند دارای حقوق و تکالیف باشند. این بدان معناست که اگر یک سیستم هوش مصنوعی مانند ChatGPT مرتکب خطایی شود، نمی توان خود سیستم را به عنوان مسئول شناخت. در چنین مواردی، مطابق ماده ۱ قانون مسئولیت مدنی ایران، مسئولیت به اشخاص مرتبط مانند سازنده، مالک یا کاربر منتقل می شود. این ماده تصریح می کند: «هرکس به دیگری خسارت وارد کند، ضامن است».
در سطح بین المللی، بحث های جالبی درباره ماهیت حقوقی هوش مصنوعی مطرح شده است. پارلمان اروپا در سال ۲۰۲۰ پیشنهاد داد که برای سیستم های پیشرفته هوش مصنوعی «شخصیت الکترونیک» در نظر گرفته شود، مشابه شخصیت حقوقی شرکت ها. اما این پیشنهاد در قانون هوش مصنوعی اتحادیه اروپا (AI Act 2024) پذیرفته نشد و در نهایت مسئولیت همچنان بر عهده انسان ها باقی ماند.
یکی از چالش های اصلی در تعیین مسئولیت هوش مصنوعی، مشکل اثبات تقصیر است. بر اساس نظریه سنتی تقصیر که در ماده ۱ قانون مسئولیت مدنی ایران آمده است، باید تقصیر شخصی که موجب خسارت شده اثبات شود. اما وقتی یک سیستم هوش مصنوعی مانند ChatGPT اطلاعات نادرست پزشکی ارائه می دهد و باعث آسیب به بیمار می شود، مشخص نیست چه کسی دقیقا مقصر است. آیا توسعه دهنده اصلی (مثل OpenAI) مسئول است؟ یا پلتفرمی که این سرویس را ارائه می دهد (مثل مایکروسافت)؟ یا کاربری که از این اطلاعات استفاده کرده است؟
برای حل این مشکل، برخی حقوقدانان پیشنهاد می کنند از نظریه خطر (Risk-Based Liability) استفاده شود. بر اساس این نظریه، کسی که از یک فعالیت پرخطر (مثل به کارگیری هوش مصنوعی) سود می برد، باید مسئول خسارات ناشی از آن باشد. نمونه جالب این رویکرد را در پرونده Uber علیه خانواده عابر پیاده (۲۰۱۸) مشاهده می کنیم. در این پرونده که در کالیفرنیا مطرح شد، دادگاه شرکت Uber را به دلیل کنترل نکردن مناسب سیستم خودران مسئول شناخت. در حقوق ایران نیز می توان با تفسیر موسع از ماده ۱ قانون مسئولیت مدنی، این نظریه را پذیرفت.
نظریه دیگری که می تواند در این زمینه مفید باشد، مسئولیت محصول (Product Liability) است. در اتحادیه اروپا، دستورالعمل ۸۵/۳۷۴/EEC تصریح می کند که تولیدکننده محصول معیوب مسئول خسارات ناشی از آن است. اگر هوش مصنوعی را به عنوان یک محصول در نظر بگیریم، این نظریه می تواند قابل اعمال باشد. اما در ایران، با وجود اینکه قانون حمایت از مصرف کننده (۱۳۸۸) مسئولیت تولیدکننده محصول معیوب را پیش بینی کرده است، مشخص نیست که آیا نرم افزارهای هوش مصنوعی را می توان تحت این قانون قرار داد یا خیر.
یکی از موارد جالب توجه در مسئولیت هوش مصنوعی، مسئله انتشار محتوای توهین آمیز یا افترا است. در سال ۲۰۲۳ در استرالیا موردی پیش آمد که ChatGPT به یک شهردار اتهام فساد مالی زد، در حالی که این اتهام کاملا نادرست بود. در چنین مواردی، اگر ثابت شود پلتفرم ارائه دهنده (مثل OpenAI) از الگوریتم های مناسب برای تعدیل محتوا استفاده نکرده است، می توان آن را مسئول دانست. در حقوق ایران نیز قانون مجازات اسلامی به مسئله افترا پرداخته است، اما پرسش اینجاست که آیا می توان یک سیستم هوش مصنوعی را تحت این ماده مورد پیگرد قرار داد یا باید مسئولان انسانی آن را پاسخگو دانست.
مورد دیگر، خطاهای حرفه ای ناشی از استفاده از هوش مصنوعی است. مثلا در سال ۲۰۲۳ در نیویورک، وکیلی که از ChatGPT برای تنظیم قرارداد استفاده کرده بود، به دلیل ارائه اطلاعات نادرست به موکل خود، ۵۰۰۰ دلار جریمه شد. دادگاه این وکیل را به دلیل «استفاده غیرحرفه ای از هوش مصنوعی» مسئول شناخت. در حقوق ایران نیز می توان با استناد به ماده ۱ قانون مسئولیت مدنی و مفهوم تقصیر حرفه ای، چنین مواردی را بررسی کرد.
برای مواجهه با این چالش ها، به نظر می رسد ایران نیازمند تصویب قانون جامعی در زمینه هوش مصنوعی است. این قانون می تواند با الهام از AI Act اتحادیه اروپا و مقررات هوش مصنوعی چین (۲۰۲۳) تدوین شود. برخی از عناصر کلیدی که می توان در این قانون گنجاند عبارتند از: طبقه بندی سیستم های هوش مصنوعی بر اساس سطح خطر (مثلا تعیین ChatGPT در سطح «پرخطر»)، الزام به شفافیت (یعنی کاربران باید بدانند با یک سیستم هوش مصنوعی تعامل دارند) و ایجاد مکانیسم های نظارتی مناسب.
راهکار دیگر، ایجاد صندوق جبران خسارت مخصوص هوش مصنوعی است، مشابه آنچه در آلمان برای رانندگی خودران وجود دارد. این صندوق می تواند از طریق مالیات بر شرکت های فعال در حوزه هوش مصنوعی تامین مالی شود و به قربانیان خطاهای هوش مصنوعی که نمی توانند مسئول خاصی را شناسایی کنند، کمک رساند.
نظام حقوقی ایران در حال حاضر به خوبی برای مواجهه با پیچیدگی های هوش مصنوعی مجهز نیست. قوانین موجود عمدتا برای روابط سنتی بین انسان ها طراحی شده اند و پاسخگوی مسائل نوظهور نیستند. یک راه حل فوری می تواند تفسیر پیشروانه قضایی باشد، مثلا پذیرش مسئولیت بدون تقصیر برای سیستم های هوش مصنوعی پرخطر. اما در بلندمدت، نیاز به تقلید از قوانین پیشرفته تر مانند AI Act اروپا یا مقررات هوش مصنوعی سنگاپور (۲۰۲۴) احساس می شود.
در مجموع، ورود هوش مصنوعی به عرصه های مختلف زندگی، نیازمند بازنگری در مفاهیم سنتی مسئولیت مدنی است. هم اکنون در بسیاری از کشورها از جمله ایران، خلاهای قانونی جدی در این زمینه وجود دارد. تدوین قوانین خاص هوش مصنوعی، ایجاد نهادهای نظارتی تخصصی و توسعه بیمه های مربوطه می تواند به ایجاد تعادل بین توسعه فناوری و حمایت از حقوق شهروندان کمک کند.