Mapping Mental Models of Explainable AI: An Exploratory Survey of Expert Perspectives

سال انتشار: 1404
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 33

فایل این مقاله در 13 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

ICCPM07_002

تاریخ نمایه سازی: 22 شهریور 1404

چکیده مقاله:

هوش مصنوعی قابل توضیح به هدف افزایش شفافیت مدل های هوش مصنوعی، قابل تفسیر و فاش کردن طبیعت جعبه سیاه شبکه های عصبی عمیق می پردازد. XAI به دنبال ایجاد اعتماد به سیستم های هوش مصنوعی است، به ویژه در برنامه های پرخطر مانند مراقبت های بهداشتی و وسایل نقلیه خودران [*]. یکی از چالش های مهم در XAI یافتن تعادل بین دقت مدل و قابلیت تفسیر است. علاوه بر این، کمبود معیارهای ارزیابی استاندارد و مشکلات قابلیت مقیاس پذیری فرآیند توسعه مدل های قابل توضیح را پیچیده تر می کند. تکنیک های محبوب XAI مانند LIME (توضیحات محلی قابل تفسیر مدل بی طرف)، SHAP (توضیحات افزایشی SHapley) و Grad-CAM (نقشه برداری فعالیت کلاس با وزن گرادیان) برای ارائه توضیحات در مورد تصمیم گیری های هوش مصنوعی توسعه یافته اند تا تصمیم گیری های خود را برای انسان ها قابل فهم کنند [°].

کلیدواژه ها:

هوش مصنوعی قابل توضیح ، نقشه برداری مدل های ذهنی ، تعامل انسان-هوش مصنوعی ، طراحی محور بر روی کاربر ، نمونه گیری از افراد متخصص

نویسندگان

Helia Abedinia

دانشجوی کارشناسی رشته مهندسی کامپیوتر، دانشکده فناوری اطلاعات و کامپیوتر، دانشگاه آزاد اسلامی واحد مرکز تهران، تهران، ایران

Atieh Khanjani

استادیار، دانشکده فناوری اطلاعات و کامپیوتر، دانشگاه آزاد اسلامی واحد مرکز تهران، تهران، ایران

Mohammad Mahdi Farokhi

دانشجوی کارشناسی رشته مهندسی کامپیوتر، دانشکده مهندسی کامپیوتر، دانشگاه آزاد اسلامی واحد اراک، اراک، ایران