رانندگی خودکار در محیط بزرگراه مبتنی بر یادگیری سیاست با استفاده از روش های یادگیری تقویتی توزیعی

سال انتشار: 1401
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 342

فایل این مقاله در 14 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_JIAE-19-2_023

تاریخ نمایه سازی: 4 تیر 1401

چکیده مقاله:

این مقاله به ارائه یک روش یادگیری مبتنی بر یادگیری تقویتی جهت طراحی یک ناظر به منظور رانندگی خودکار در محیط بزرگراه می پردازد. با توجه به تصادفی بودن شرایط رانندگی در بزرگراه و همچنین درنظر گرفتن شرایط واقعی تر رانندگی، از مزایای یادگیری تقویتی توزیعی عمیق بهره گرفته شده است. در این مقاله برای اولین بار جهت یادگیری سیاست های رانندگی استفاده از روش های یادگیری تقویتی توزیعی تابع کمی تمام پارامتری شده (FQF) و شبکه کمی ضمنی  (IQN) پیشنهاد شده است. برای آموزش عامل، استفاده از داده های دوربین، لیدار و ترکیب آن دو پیشنهاد شده است. به منظور استفاده از ترکیب دو نوع داده، ساختار شبکه چند ورودی را به خدمت گرفته ایم. جهت ارزیابی روش های پیشنهاد شده، از شبیه ساز رانندگی در بزرگراه استفاده کرده ایم که در نرم افزار unity توسعه یافته است. تحقق خودروی خودران در شبیه ساز مورد نظر به کمک سیستم های کمک راننده صورت پذیرفته است. ارزیابی عامل براساس یادگیری سیاست رانندگی که قادر به انتخاب عمل صحیح برای هدایت خودور باشد انجام شده است. به منظور ارزیابی بهتر روش ها دو معیار تغییرات سرعت و تغییرات لاین را برای یادگیری سیاست رانندگی بررسی کرده ایم. نتایج بدست آمده از مقاله با روش هایی نظیر شبکه Q عمیق (DQN)، شبکه Q عمیق رگرسیون کمی (QR-DQN) که پیش تر ارائه شده بود مقایسه گردید. نتایج بدست آمده نشان دهنده آن است که الگوریتم های پیشنهادی توانایی یادگیری سیاست های مناسب رانندگی در محیط بزرگراه را دارند. همچنین روش FQF عملکرد بهتری نیز نسبت به IQN و سایر روش هایی که در گذشته پیاده سازی شده اند از خود نشان می دهد.

نویسندگان

مهدی ملائی

Dept. of Electrical Engineering, School of Automotive Engineering, Iran University of Science and Technology

عبدالله امیرخانی

Dept. of Electrical Engineering, School of Automotive Engineering, Iran University of Science and Technology

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • F. Jiménez, J. E. Naranjo, J. J. Anaya, F. García, ...
  • M. Flad, L. Fröhlich, and S. Hohmann, “Cooperative shared control ...
  • C. Braunagel, W. Rosenstiel, and E. Kasneci, “Ready for take-over? ...
  • H. M. Fahmy, M. A. Abd El Ghany, and G. ...
  • J. Hawkins and K. Nurul Habib, “Integrated models of land ...
  • D. Miculescu and S. Karaman, “Polling-systems-based autonomous vehicle coordination in ...
  • F. Liu, F. Zhao, Z. Liu, and H. Hao, “Can ...
  • S. Kuutti, R. Bowden, Y. Jin, P. Barber, and S. ...
  • A. Noori, E. Kalhor, M. ali sadrnia, and S. Saboori ...
  • Z. Wang and T. Hong, “Reinforcement learning for building controls: ...
  • A. Younesi, H. Shayeghi, A. Akbari, and Y. Hashemi, “Design ...
  • M. Botvinick, J. X. Wang, W. Dabney, K. J. Miller, ...
  • M. Aslani and M. Saadi Mesgari, “Developing Continuous Reinforcement Learning ...
  • Y. Zhan, S. Guo, P. Li, and J. Zhang, “A ...
  • C. Han, L. Huo, X. Tong, H. Wang, and X. ...
  • O. Gottesman et al., “Guidelines for reinforcement learning in healthcare,” ...
  • M. Baucum, A. Khojandi, and R. Vasudevan, “Improving Deep Reinforcement ...
  • Y. Tsurumine, Y. Cui, E. Uchibe, and T. Matsubara, “Deep ...
  • F. Niroui, K. Zhang, Z. Kashino, and G. Nejat, “Deep ...
  • N. Xu et al., “Multi-level policy and reward-based deep reinforcement ...
  • B. Uzkent, C. Yeh, and S. Ermon, “Efficient object detection ...
  • W. Dabney et al., “A distributional code for value in ...
  • Y. Hua, R. Li, Z. Zhao, X. Chen, and H. ...
  • K. Min, H. Kim, and K. Huh, “Deep Distributional Reinforcement ...
  • C. You, J. Lu, D. Filev, and P. Tsiotras, “Advanced ...
  • D. Hayashi, Y. Xu, T. Bando, and K. Takeda, “A ...
  • M. Veres and M. Moussa, “Deep learning for intelligent transportation ...
  • M. Bojarski et al., “End to end learning for self-driving ...
  • B. Huval et al., “An empirical evaluation of deep learning ...
  • S. Shalev-Shwartz, S. Shammah, and A. Shashua, “Safe, multi-agent, reinforcement ...
  • W. Yuan, M. Yang, Y. He, C. Wang, and B. ...
  • M. Bouton, A. Nakhaei, K. Fujimura, and M. J. Kochenderfer, ...
  • A. E. L. Sallab, M. Abdou, E. Perot, and S. ...
  • X. Xiong, J. Wang, F. Zhang, and K. Li, “Combining ...
  • X. Zong, G. Xu, G. Yu, H. Su, and C. ...
  • W. Xia, H. Li, and B. Li, “A control strategy ...
  • J. Schulman, F. Wolski, P. Dhariwal, A. Radford, and O. ...
  • C. Yu et al., “Distributed multiagent coordinated learning for autonomous ...
  • Z. Zhu and H. Zhao, “A Survey of Deep RL ...
  • J. Weng, X. Jiang, W.-L. Zheng, and J. Yuan, “Early ...
  • Y. Wei, F. R. Yu, M. Song, and Z. Han, ...
  • V. Mnih et al., “Human-level control through deep reinforcement learning,” ...
  • X. Qiu, L. Liu, W. Chen, Z. Hong, and Z. ...
  • V.-H. Bui, A. Hussain, and H.-M. Kim, “Double deep Q-learning-based ...
  • Q. Zhang, M. Lin, L. T. Yang, Z. Chen, S. ...
  • Z. Wang, T. Schaul, M. Hessel, H. Hasselt, M. Lanctot, ...
  • M. G. Bellemare, W. Dabney, and R. Munos, “A distributional ...
  • M. Rowland, M. Bellemare, W. Dabney, R. Munos, and Y. ...
  • W. Dabney, M. Rowland, M. Bellemare, and R. Munos, “Distributional ...
  • G. Ostrovski, W. Dabney, and R. Munos, “Autoregressive quantile networks ...
  • W. Dabney, G. Ostrovski, D. Silver, and R. Munos, “Implicit ...
  • Y. Keneshloo, T. Shi, N. Ramakrishnan, and C. K. Reddy, ...
  • D. Yang, L. Zhao, Z. Lin, T. Qin, J. Bian, ...
  • Y. Fu, C. Li, F. R. Yu, T. H. Luan, ...
  • F. Jiménez, J. E. Naranjo, J. J. Anaya, F. García, ...
  • M. Flad, L. Fröhlich, and S. Hohmann, “Cooperative shared control ...
  • C. Braunagel, W. Rosenstiel, and E. Kasneci, “Ready for take-over? ...
  • H. M. Fahmy, M. A. Abd El Ghany, and G. ...
  • J. Hawkins and K. Nurul Habib, “Integrated models of land ...
  • D. Miculescu and S. Karaman, “Polling-systems-based autonomous vehicle coordination in ...
  • F. Liu, F. Zhao, Z. Liu, and H. Hao, “Can ...
  • S. Kuutti, R. Bowden, Y. Jin, P. Barber, and S. ...
  • A. Noori, E. Kalhor, M. ali sadrnia, and S. Saboori ...
  • Z. Wang and T. Hong, “Reinforcement learning for building controls: ...
  • A. Younesi, H. Shayeghi, A. Akbari, and Y. Hashemi, “Design ...
  • M. Botvinick, J. X. Wang, W. Dabney, K. J. Miller, ...
  • M. Aslani and M. Saadi Mesgari, “Developing Continuous Reinforcement Learning ...
  • Y. Zhan, S. Guo, P. Li, and J. Zhang, “A ...
  • C. Han, L. Huo, X. Tong, H. Wang, and X. ...
  • O. Gottesman et al., “Guidelines for reinforcement learning in healthcare,” ...
  • M. Baucum, A. Khojandi, and R. Vasudevan, “Improving Deep Reinforcement ...
  • Y. Tsurumine, Y. Cui, E. Uchibe, and T. Matsubara, “Deep ...
  • F. Niroui, K. Zhang, Z. Kashino, and G. Nejat, “Deep ...
  • N. Xu et al., “Multi-level policy and reward-based deep reinforcement ...
  • B. Uzkent, C. Yeh, and S. Ermon, “Efficient object detection ...
  • W. Dabney et al., “A distributional code for value in ...
  • Y. Hua, R. Li, Z. Zhao, X. Chen, and H. ...
  • K. Min, H. Kim, and K. Huh, “Deep Distributional Reinforcement ...
  • C. You, J. Lu, D. Filev, and P. Tsiotras, “Advanced ...
  • D. Hayashi, Y. Xu, T. Bando, and K. Takeda, “A ...
  • M. Veres and M. Moussa, “Deep learning for intelligent transportation ...
  • M. Bojarski et al., “End to end learning for self-driving ...
  • B. Huval et al., “An empirical evaluation of deep learning ...
  • S. Shalev-Shwartz, S. Shammah, and A. Shashua, “Safe, multi-agent, reinforcement ...
  • W. Yuan, M. Yang, Y. He, C. Wang, and B. ...
  • M. Bouton, A. Nakhaei, K. Fujimura, and M. J. Kochenderfer, ...
  • A. E. L. Sallab, M. Abdou, E. Perot, and S. ...
  • X. Xiong, J. Wang, F. Zhang, and K. Li, “Combining ...
  • X. Zong, G. Xu, G. Yu, H. Su, and C. ...
  • W. Xia, H. Li, and B. Li, “A control strategy ...
  • J. Schulman, F. Wolski, P. Dhariwal, A. Radford, and O. ...
  • C. Yu et al., “Distributed multiagent coordinated learning for autonomous ...
  • Z. Zhu and H. Zhao, “A Survey of Deep RL ...
  • J. Weng, X. Jiang, W.-L. Zheng, and J. Yuan, “Early ...
  • Y. Wei, F. R. Yu, M. Song, and Z. Han, ...
  • V. Mnih et al., “Human-level control through deep reinforcement learning,” ...
  • X. Qiu, L. Liu, W. Chen, Z. Hong, and Z. ...
  • V.-H. Bui, A. Hussain, and H.-M. Kim, “Double deep Q-learning-based ...
  • Q. Zhang, M. Lin, L. T. Yang, Z. Chen, S. ...
  • Z. Wang, T. Schaul, M. Hessel, H. Hasselt, M. Lanctot, ...
  • M. G. Bellemare, W. Dabney, and R. Munos, “A distributional ...
  • M. Rowland, M. Bellemare, W. Dabney, R. Munos, and Y. ...
  • W. Dabney, M. Rowland, M. Bellemare, and R. Munos, “Distributional ...
  • G. Ostrovski, W. Dabney, and R. Munos, “Autoregressive quantile networks ...
  • W. Dabney, G. Ostrovski, D. Silver, and R. Munos, “Implicit ...
  • Y. Keneshloo, T. Shi, N. Ramakrishnan, and C. K. Reddy, ...
  • D. Yang, L. Zhao, Z. Lin, T. Qin, J. Bian, ...
  • Y. Fu, C. Li, F. R. Yu, T. H. Luan, ...
  • نمایش کامل مراجع