Optimizing Deep Q-Networks with fuzzy inference-based adaptive replay buffer management
محل انتشار: مجله سیستم های فازی، دوره: 22، شماره: 4
سال انتشار: 1404
نوع سند: مقاله ژورنالی
زبان: انگلیسی
مشاهده: 46
فایل این مقاله در 14 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
JR_IJFS-22-4_009
تاریخ نمایه سازی: 16 دی 1404
چکیده مقاله:
Deep reinforcement learning algorithms, such as Deep Q-Networks (DQN), require careful tuning of replay memory parameters. In standard DQN implementations, these parameters remain fixed, which conflicts with the dynamic nature of the learning process where environmental conditions and reward stability continuously change. This mismatch often results in unstable learning or slow convergence. In this paper, we present a fuzzy logic-based system for adaptively adjusting three key replay memory parameters: memory size, the ratio of recent samples, and priority weight. The proposed fuzzy system evaluates the agent’s state by monitoring reward variations and average training errors, and accordingly updates these parameters to maintain optimal values during training. To assess the effectiveness of the proposed approach, we compared it with conventional DQN and PER-DQN methods across three benchmark reinforcement learning environments: CartPole v۱, LunarLander v۲, and Taxi v۳. Experimental and statistical analyses demonstrate that our method improves average rewards, reduces training time, and enhances learning stability.
کلیدواژه ها:
نویسندگان
M. B. Dowlatshahi
Department of Computer Engineering, Lorestan University, Khorramabad, Iran
S. Beiranvand
Department of Computer Engineering, Technical and Vocational University (TVU), Tehran, Iran.
مراجع و منابع این مقاله:
لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :