Uncertainty-aware Path Planning using Reinforcement Learning and Deep Learning Methods

سال انتشار: 1400
نوع سند: مقاله ژورنالی
زبان: انگلیسی
مشاهده: 106

فایل این مقاله در 12 صفحه با فرمت PDF قابل دریافت می باشد

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_CKE-3-1_003

تاریخ نمایه سازی: 25 خرداد 1401

چکیده مقاله:

This paper proposes new algorithms to improve Reinforcement Learning (RL) and Deep Q-Network (DQN) methods for path planning considering uncertainty in the perception of environment. The study aimed to formulate and solve the path planning optimization problem by optimizing the path, avoiding obstacles, and minimizing the related uncertainty. In this regard, a reward function is constructed based on the weighted features of the environment images. In this study, Deep Learning (DL) is used for two purposes. First, for perceiving a real environment to find the state transition matrix of the mobile robot path planning problem, and second, for extracting the features of state directly from an image of the environment to select the appropriate actions. To solve the path planning problem, it is formed in the context of an RL problem, and a Convolutional Neural Network (CNN) is used to approximate Q-values as a linear parameterized function. Implementing this approach improves the Q-learning, SARSA, and DQN algorithms as the new versions, called POQL, POSARSA, and PODQN. The learning process results show that using newly improved algorithms increases path planning performance by more than ۲۰%, ۲۱%, and ۵% compared to the Q-learning, SARSA, and DQN, respectively.

نویسندگان

Nematollah Ab azar

Department of Electrical Engineering, Imam Khomeini International University (IKIU), Qazvin, Iran,

Aref Shahmansoorian

Department of Electrical Engineering, Imam Khomeini International University (IKIU), Qazvin, Iran.

Mohsen Davoudi

Department of Electrical Engineering, Imam Khomeini International University (IKIU), Qazvin, Iran.

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • M.Samadi and M. F. Othman, “Global path planning for autonomous ...
  • V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, ...
  • V. Mnih, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. ...
  • V. Mnih, A. P. Badia, M. Mirza, A. Graves, T. ...
  • H. Van Hasselt, A. Guez, A., and D. Silver, “Deep ...
  • M. Wulfmeier, D. Rao, D. Z. Wang, P. Ondruska, and ...
  • J. Xin, H. Zhao, D. Liu, and M. Li, “Application ...
  • Y. F. Chen, M. Everett, M. Liu, and J.P. How, ...
  • U. Challita, W. Saad, and C. Bettstetter, “Deep reinforcement learning ...
  • Y.H. Kim, J. I. Jang, and S. Yun,” End-to-end deep ...
  • A. I. Panov, K. S. Yakovlev, R. Suvorov, “Grid path ...
  • M. Pfeiffer, S. Shukla, M. Turchetta, C. Cadena, A. Krause, ...
  • S. Zhou, X. Liu, Y. Xu, J. Guo, “A Deep ...
  • L. Lv, S. Zhang, D. Ding, Y. Wang, “Path planning ...
  • G. Kahn, A. Villaflor, V. Pong, P. Abbeel, S. Levine, ...
  • F. L. Da Silva, P. Hernandez-Leal, B. Kartal, and M. ...
  • R. S. Sutton, and A.G. Barto, “Introduction to reinforcement learning, ...
  • M. W. Otte, “A survey of machine learning approaches to ...
  • X. Lei, Z. Zhang, and P. Dong, “Dynamic path planning ...
  • T. Blum, W. Jones, and K. Yoshida, “Deep Learned Path ...
  • S. Lange, M. Riedmiller, and A. Voigtländer, “Autonomous reinforcement learning ...
  • J. Kober, J. A. Bagnell, and J. Peters, “Reinforcement learning ...
  • P. Abbeel, and A.Y. Ng, “Apprenticeship learning via inverse reinforcement ...
  • نمایش کامل مراجع