Mapping Mental Models of Explainable AI: An Exploratory Survey of Expert Perspectives
محل انتشار: هفتمین کنفرانس بین المللی هوش مصنوعی و چشم انداز آینده آن در علوم مهندسی برق ، کامپیوتر ، مکانیک و مخابرات
سال انتشار: 1404
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 33
فایل این مقاله در 13 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
ICCPM07_002
تاریخ نمایه سازی: 22 شهریور 1404
چکیده مقاله:
هوش مصنوعی قابل توضیح به هدف افزایش شفافیت مدل های هوش مصنوعی، قابل تفسیر و فاش کردن طبیعت جعبه سیاه شبکه های عصبی عمیق می پردازد. XAI به دنبال ایجاد اعتماد به سیستم های هوش مصنوعی است، به ویژه در برنامه های پرخطر مانند مراقبت های بهداشتی و وسایل نقلیه خودران [*]. یکی از چالش های مهم در XAI یافتن تعادل بین دقت مدل و قابلیت تفسیر است. علاوه بر این، کمبود معیارهای ارزیابی استاندارد و مشکلات قابلیت مقیاس پذیری فرآیند توسعه مدل های قابل توضیح را پیچیده تر می کند. تکنیک های محبوب XAI مانند LIME (توضیحات محلی قابل تفسیر مدل بی طرف)، SHAP (توضیحات افزایشی SHapley) و Grad-CAM (نقشه برداری فعالیت کلاس با وزن گرادیان) برای ارائه توضیحات در مورد تصمیم گیری های هوش مصنوعی توسعه یافته اند تا تصمیم گیری های خود را برای انسان ها قابل فهم کنند [°].
کلیدواژه ها:
هوش مصنوعی قابل توضیح ، نقشه برداری مدل های ذهنی ، تعامل انسان-هوش مصنوعی ، طراحی محور بر روی کاربر ، نمونه گیری از افراد متخصص
نویسندگان
Helia Abedinia
دانشجوی کارشناسی رشته مهندسی کامپیوتر، دانشکده فناوری اطلاعات و کامپیوتر، دانشگاه آزاد اسلامی واحد مرکز تهران، تهران، ایران
Atieh Khanjani
استادیار، دانشکده فناوری اطلاعات و کامپیوتر، دانشگاه آزاد اسلامی واحد مرکز تهران، تهران، ایران
Mohammad Mahdi Farokhi
دانشجوی کارشناسی رشته مهندسی کامپیوتر، دانشکده مهندسی کامپیوتر، دانشگاه آزاد اسلامی واحد اراک، اراک، ایران