رویکردهای هوش مصنوعی قابل توضیح برای تشخیص اخبار جعلی: یک مطالعه جامع

سال انتشار: 1404
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 446

فایل این مقاله در 7 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

ICISE11_059

تاریخ نمایه سازی: 8 آذر 1404

چکیده مقاله:

انفجار اخبار جعلی در منظر دیجیتال امروز تهدیدی برای قابل اعتماد بودن اطلاعاتی است که جوامع بر آن وابسته اند و تاثیراتی از رفتار رای دهندگان تا اعتماد عمومی را تحت تاثیر قرار می دهد. در حالی که رویکردهای یادگیری ماشین و یادگیری عمیق موجود برای تشخیص اخبار جعلی (FND) دقت های قابل تشویقی ارائه داده اند، فرآیندهای تصمیم گیری آن ها که مانع شفافیت و قابل اعتمادی مورد نیاز در محیط های پرخطر می شوند. این مطالعه نحوه اینکه رویکردهای هوش مصنوعی قابل توضیح چگونه می توانند FND را تقویت کنند، با گسترش پژوهش به انواع مختلف داده و معماری های شبکه در حال تکامل. با یکپارچه سازی یافته های ظاهر شده از سال ۲۰۲۳، ما وضعیت هنر را نقشه برداری می کنیم، روش های XAI متداول مانند LIME، SHAP و مکانیزم های توجه در حال تکامل به همراه آخرین معماری های تبدیل کننده و شبکه های عصبی گراف را برجسته می کنیم. همچنین ارزش ادغام داده های چندحالته را برجسته می کنیم، جایی که سیگنال های متنی، تصویری و اجتماعی با هم همکاری می کنند تا دقت تشخیص و قابل فهمی نتایج را افزایش دهند. مرور به صراحت موانع پایدار را آدرس می دهد: تعادل بین تقاضای خروجی های قابل تفسیر و دقت بالا، مدیریت هزینه های محاسباتی افزایش یافته، و عدم وجود استانداردهای جهانی پذیرفته شده برای ارزیابی توضیحات. در آخر، ما مسیرهای اولویتی برای تحقیقات آینده پیشنهاد می دهیم، با هدف تولید سیستم های FND قابل اعتماد و شفاف که هم توسط کاربران و هم توسط نهادهای نظارتی قابل قبول باشند.

کلیدواژه ها:

تشخیص اخبار جعلی ، هوش مصنوعی قابل توضیح ، یادگیری عمیق ، شبکه های عصبی گراف ، ادغام اطلاعات چندحالته

نویسندگان

امیرحسین توحیدی آقدم

دانشکده کامپیوتر، دانشگاه آزاد اسلامی تهران، ایران

آزیتا شیرازی پور

دانشکده کامپیوتر، دانشگاه آزاد اسلامی تهران، ایران

سید جواد میرابدینی

دانشکده کامپیوتر، دانشگاه آزاد اسلامی تهران، ایران