یادگیری تجمعی مبتنی بر تابع ضرر کانونی افزایشی (FENIL) برای غلبه بر نامتوازنی دسته ای

  • سال انتشار: 1401
  • محل انتشار: فصلنامه فرماندهی و کنترل، دوره: 6، شماره: 2
  • کد COI اختصاصی: JR_ICI-6-2_004
  • زبان مقاله: فارسی
  • تعداد مشاهده: 136
دانلود فایل این مقاله

نویسندگان

نسیبه محمودی

دانشگاه مالک اشتر

حسین شیرازی

محمد فخردانش

کوروش دادش تبار احمدی

چکیده

شبکه­های عصبی کانولووشنال یکی از موفق­ترین و پراستفاده­ترین مدل­های یادگیری ماشین در دسته­بندی داده­ها محسوب می­شود اما به رغم موفقیت­های چشمگیری که در دسته­بندی داده­ها دارند، در یادگیری نامتوازن، که یکی از چالش برانگیزترین مشکلات در یادگیری ماشین است،  به نتایج قابل قبولی دست پیدا نمی­کنند چرا که در این گونه مسائل، معمولا تعداد نمونه­های یکی از دسته­ها خیلی بیشتر از نمونههای دسته دیگر است و یا هزینه دسته­بندی اشتباه در دو دسته متفاوت است، این در حالی است که شبکه­های CNN به صورت پیش­فرض، توزیع دسته­ها را متوازن و هزینه دسته­بندی را مساوی در نظر می­گیرند. یکی از روش­های موفق در برخورد با مجموعه­داده­های نامتوازن، روش­های تجمعی­است. آنها با ترکیب تعدادی از تخمین گرهای پایه می­توانند به دقت بالایی دست پیدا کنند و در مقایسه با زمانی که تنها از یک تخمین گر استفاده می­شود، قابلیت اطمینان مدل را افزایش ­دهند.  استفاده از یادگیری تجمعی، مدل­های یادگیری ماشین را در مواجهه با داده های نامتوازن توانمند می­سازند. در این پژوهش، روشی مبتنی بر یادگیری تجمعی برای شبکه­های عصبی کانولووشنال معرفی شده­است که از تجمع  تعدادی شبکه­ CNN برای کار با داده­های نامتوازن استفاده می­کند. در این مدل از تابع ضرر کانونی برای آموزش CNN­ها استفاده­شده­است، پارامتر گاما در این تابع میزان اهمیت نمونه­های سخت و آسان را مشخص می­کند در مدل تجمعی پیشنهادی از پارامتر گاما برای ایجاد تنوع در CNN­ها استفاده­شده­است و این باعث شده­است هر شبکه کانولووشنال نسبت به شبکه قبلی اهمیت کمتری به داده­های آسان دهد. همچنین وزن داده­ها برای آموزش هر شبکه  با استفاده از نتیجه دسته­بندی شبکه CNN قبلی مشخص می­شود. در نهایت برای دسته بندی داده­های جدید از ترکیب نتیجه همه CNN­ها استفاده می­شود. شبکه تجمعی یشنهادی (FENIL) برروی چندین مجموعه داده­  اعمال شده­ است، براساس نتایج بدست آمده، شبکه  FENIL نه تنها درمقایسه با روش­های غیر عمیق مثل آدابوست با درخت تصمیم، دقت و F۱-score بسیار بالاتری (۶۳/۱۸، ۶۱/ ۱۹بالاتر) دارد، بلکه در مقایسه با روش­های معمول عمیق دیگر مانند استفاده از یک CNN عمیق، رای گیری CNN­ها و CNN­های آبشاری و SMOTE  نیز نتایج بهتری را بدست­آورده­است.

کلیدواژه ها

imbalanced learning, Ensemble learning, Focal loss function, Transfer learning, یادگیری نامتوازن, تابع ضرر کانونی, یادگیری تجمعی, یادگیری انتقالی

اطلاعات بیشتر در مورد COI

COI مخفف عبارت CIVILICA Object Identifier به معنی شناسه سیویلیکا برای اسناد است. COI کدی است که مطابق محل انتشار، به مقالات کنفرانسها و ژورنالهای داخل کشور به هنگام نمایه سازی بر روی پایگاه استنادی سیویلیکا اختصاص می یابد.

کد COI به مفهوم کد ملی اسناد نمایه شده در سیویلیکا است و کدی یکتا و ثابت است و به همین دلیل همواره قابلیت استناد و پیگیری دارد.