Whitened gradient descent, a new updating method for optimizers in deep neural networks
محل انتشار: مجله هوش مصنوعی و داده کاوی، دوره: 10، شماره: 4
سال انتشار: 1401
نوع سند: مقاله ژورنالی
زبان: انگلیسی
مشاهده: 132
فایل این مقاله در 12 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
این مقاله در بخشهای موضوعی زیر دسته بندی شده است:
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
JR_JADM-10-4_002
تاریخ نمایه سازی: 28 آذر 1401
چکیده مقاله:
Optimizers are vital components of deep neural networks that perform weight updates. This paper introduces a new updating method for optimizers based on gradient descent, called whitened gradient descent (WGD). This method is easy to implement and can be used in every optimizer based on the gradient descent algorithm. It does not increase the training time of the network significantly. This method smooths the training curve and improves classification metrics. To evaluate the proposed algorithm, we performed ۴۸ different tests on two datasets, Cifar۱۰۰ and Animals-۱۰, using three network structures, including densenet۱۲۱, resnet۱۸, and resnet۵۰. The experiments show that using the WGD method in gradient descent based optimizers, improves the classification results significantly. For example, integrating WGD in RAdam optimizer increased the accuracy of DenseNet from ۸۷.۶۹% to ۹۰.۰۲% on the Animals-۱۰ dataset.
کلیدواژه ها:
نویسندگان
H. Gholamalinejad
Department of Computer, Faculty of Engineering, Bozorgmehr University of Qaenat, Qaen, Iran.
H. Khosravi
Faculty of Electrical Engineering Shahrood University of Technology.
مراجع و منابع این مقاله:
لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :