عملکرد یادگیری تقویتی عمیق در کنترل تطبیقی فاز گردش به چپ چراغ راهنمایی

سال انتشار: 1404
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 5

فایل این مقاله در 10 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_SJCE-41-3_003

تاریخ نمایه سازی: 29 دی 1404

چکیده مقاله:

در نوشتار حاضر، عملکرد دو روش یادگیری تقویتی، شبکه ی Q عمیق دوئل دوگانه و شبکه ی Q عمیق استاندارد در کنترل تطبیقی فاز گردش به چپ چراغ های راهنمایی در یک تقاطع شهری مقایسه شده اند. روش های مقدار- محور ذکرشده، با استفاده از بهینه سازی در یادگیری تقویتی، مدت زمان سبز هر فاز را تعیین و یکی از دو فاز گردش به چپ محافظت شده یا مجاز را برای سیکل بعدی انتخاب می کنند. شبیه سازی ها برای حالت های توزیع یکنواخت و متغیر جریان خودروها و با دو جریان ترافیک سبک و سنگین انجام شده و نتایج نشان داده اند که الگوریتم شبکه ی عمیق دوئل دوگانه در فرایند یادگیری موثرتر از الگوریتم شبکه ی Q استاندارد عمل کرده است. همچنین، یادگیری با شبکه یQ  دوئل دوگانه توانسته است طول صف تجمعی وسائط نقلیه را در تمام حالت های شبیه سازی، دست کم به میزان ۲۶٪ کاهش دهد و جریان ترافیک را بهبود بخشد. کاهش اخیر در حالت جریان ترافیک سنگین و یکنواخت بیشتر از سایر حالت ها بوده و به ۶۷٪ رسیده است. پژوهش حاضر می تواند نقش مهمی در توسعه ی سیستم های هوشمند کنترل ترافیک ایفا کند.

کلیدواژه ها:

کنترل تطبیقی چراغ ترافیکی ، فاز گردش به چپ ، یادگیری تقویتی ، شبکه ی عمیق دوئل دوگانه

نویسندگان

الهام گلپایگانی

دانشکده ی مهندسی عمران، دانشکدگان فنی، دانشگاه تهران، تهران.

عباس بابازاده

دانشکده ی مهندسی عمران، دانشکدگان فنی، دانشگاه تهران، تهران.

امید نیری

دانشکده ی مهندسی عمران، دانشکدگان فنی، دانشگاه تهران، تهران.

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • Mannion, P., Duggan, J., and Howley, E., ۲۰۱۶. An experimental ...
  • Eriksen, A. B., Lahrmann, H., Larsen, K. G., and Taankvist, ...
  • Mousavi, S. S., Schukat, M., and Howley, E., ۲۰۱۷. Traffic ...
  • Miletić, M., Ivanjko, E., Gregurić, M., and Kušić, K., ۲۰۲۲. ...
  • Chin, Y.K., Lee, L.K., Bolong, N., Yang, S.S. and Teo, ...
  • Haydari, A., and Yilmaz, Y., ۲۰۲۰. Deep reinforcement learning for ...
  • Sutton, R. S., and Barto, A. G., ۲۰۱۸. Introduction. In ...
  • Touhbi, S., Babram, M.A., Nguyen-Huu, T., Marilleaub, N., Hbid, M.L., ...
  • Zheng, G., Zang, X., Xu, N., Wei, H., Yu, Z., ...
  • La, P. and S. Bhatnagar, ۲۰۱۱. Reinforcement learning with function ...
  • Genders, W. and Razavi, S., ۲۰۱۶. Using a deep reinforcement ...
  • Wei, H., Zheng, G., Yao, H. and Li, Z., ۲۰۱۸. ...
  • Zheng, Q., Xu, H., Chen, J., Zhang, D., Zhang, K., ...
  • Stamatiadis, N., Tate, S., and Kirk, A., ۲۰۱۶. Left-turn phasing ...
  • Han, G., Zheng, Q., Liao, L., Tang, P., Li, Z., ...
  • Afandizadeh, Sh., Tavakoli Kashani, A. & Hasanpour, Sh., ۲۰۱۴. A ...
  • Wang, Z., Schaul, T., Hessel, M., van Hasselt, H., Lanctot, ...
  • نمایش کامل مراجع