تحلیل و مقایسه ۲۱ قید محدودسازی در الگوریتم گرادیان نزولی اتفاقی به روش کرنل

سال انتشار: 1401
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 176

فایل این مقاله در 8 صفحه با فرمت PDF قابل دریافت می باشد

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_JIAE-19-3_015

تاریخ نمایه سازی: 16 مهر 1401

چکیده مقاله:

مقیدسازی الگوریتم گرادیان نزولی باهدف آموزش شبکه عصبی با وزن­هایی محدودشده در کاربردهایی نظیر  شفاف سازی شبکه، کاهش حجم شبکه ازنظر ذخیره سازی و افزایش سطح عمومیت پذیری آن موثر است. همچنین می تواند در افزایش سرعت همگرایی، سرعت استنتاج و یافتن جوابی بهینه نیز مناسب باشد. در این نوشتار با استفاده از ترفند کرنل به عنوان روشی برای تحمیل انواع قیود بر الگوریتم آموزش، تعداد ۲۱ قید مختلف با یکدیگر مقایسه شده است که تعداد ۱۶ قید آن با الهام از عدم قطعیت موجود در شبکه های عصبی زیستی برای اولین بار در این مقاله ارائه شده است. مقایسه قید ها بدون هیچ گونه افزایش داده و منظم سازی، صورت گرفته است تا اثر قید ها بر فرآیند بهینه سازی واضح باشد. به منظور ارزیابی، برای هر قید در حل مسائل طبقه بندی MNIST، CIFAR-۱۰ و CIFAR-۱۰۰ با شبکه های عصبی عمیق مختص آن، ۶۳ آزمایش شبیه سازی شده است. نتایج نشان می دهد هر قید در هر مجموعه داده تاثیر متفاوتی بر فرآیند آموزش دارد و به طور مشخص قیدهای پیشنهادی که از عدم قطعیت حاضر در شبکه های عصبی زیستی الهام گرفته شده است، می­تواند بهتر از قیدهای ارائه شده در تحقیقات پیشین باشد و باعث بهبود عملکرد شبکه عصبی عمیق ازنظر دقت طبقه بندی شود.

نویسندگان

حسین علی غیاثی راد

Department of Computer Engineering, Science & Research Branch, Islamic Azad University

مهدی علیاری شوره دلی

Faculty of Electrical Engineering, Department of Mechatronics Engineering, Industrial Control Center of Excellence, APAC Research Group, K. N. Toosi University of Technology

فائزه فریور

Department of Computer Engineering, Science & Research Branch, Islamic Azad University

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • D. E. Rumelhart, G. E. Hinton, and R. J. Williams, ...
  • L. Bottou, “Online learning and stochastic approximations,” On-line Learn. neural ...
  • J. H. Lee, T. Delbruck, and M. Pfeiffer, “Training deep ...
  • A. Morro, V. Canals, A. Oliver, M. Alomar, P. Galan-Prado, ...
  • P. O’Connor and M. Welling, “Deep Spiking Networks,” no. Nips, ...
  • H. Mostafa, “Supervised learning based on temporal coding in spiking ...
  • S. Sen, S. Venkataramani, and A. Raghunathan, “Approximate computing for ...
  • E. Hunsberger and C. Eliasmith, “Training Spiking Deep Networks for ...
  • B. Rueckauer, I.-A. Lungu, Y. Hu, and M. Pfeiffer, “Theory ...
  • D. Zambrano and S. M. Bohte, “Fast and Efficient Asynchronous ...
  • D. Huh and T. J. Sejnowski, “Gradient Descent for Spiking ...
  • J. Humble, S. Furber, S. L. Denham, and T. Wennekers, ...
  • H. A. Ghiassirad, M. Aliyari Shoorehdeli, and F. Farivar, “Application ...
  • S. S. Liew, M. Khalil-Hani, and R. Bakhteri, “Bounded activation ...
  • J. R. McDonnell, “Training Neural Networks with Weight Constraints,” Proc. ...
  • Y. Yi, Z. Hangping, and Z. Bin, “A new learning ...
  • M. Wang, Y. Chen, J. Liu, and Y. Gu, “Random ...
  • G. Di Muro and S. Ferrari, “A constrained-optimization approach to ...
  • B. O. Ayinde and J. M. Zurada, “Deep Learning of ...
  • F. Han, Q. H. Ling, and D. S. Huang, “Modified ...
  • S. J. Perantonis, N. Ampazis, and S. Varoufakis, “Constrained learning ...
  • J. Chorowski and J. M. Zurada, “Learning understandable neural networks ...
  • M. Courbariaux, Y. Bengio, and J.-P. David, “BinaryConnect: Training Deep ...
  • A. Bouzerdoum and T. R. Pattison, “Neural Network for Quadratic ...
  • Y. Mu, W. Ding, T. Zhou, and D. Tao, “Constrained ...
  • A. Tewari, “(Exponentiated) Stochastic Gradient Descent for L۱ Constrained Problems,” ...
  • J. Zylberberg, J. Cafaro, M. H. Turner, E. Shea-Brown, and ...
  • W. Maass and W. Maass, “To Spike or Not to ...
  • A. A. Faisal, L. P. J. Selen, and D. M. ...
  • T. Branco and K. Staras, “The probability of neurotransmitter release: ...
  • M. D. McDonnell, J. H. Goldwyn, and B. Lindner, “Editorial: ...
  • D. J. Tolhurst, J. A. Movshon, and A. F. Dean, ...
  • J. M. Beck et al., “Probabilistic Population Codes for Bayesian ...
  • R. Moreno-Bote, “Poisson-Like Spiking in Circuits with Probabilistic Synapses,” PLoS ...
  • C. Gulcehre, M. Moczulski, M. Denil, and Y. Bengio, “Noisy ...
  • M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous ...
  • Q. Le, J. Ngiam, Z. Chen, D. H. Chia, and ...
  • K. He, X. Zhang, S. Ren, and J. Sun, “Deep ...
  • حکم آبادی, ع., ذاکری, آ., & شرافت, ا. (۲۰۱۷). ...
  • L. Bottou, “Online learning and stochastic approximations,” On-line Learn. neural ...
  • J. H. Lee, T. Delbruck, and M. Pfeiffer, “Training deep ...
  • A. Morro, V. Canals, A. Oliver, M. Alomar, P. Galan-Prado, ...
  • P. O’Connor and M. Welling, “Deep Spiking Networks,” no. Nips, ...
  • H. Mostafa, “Supervised learning based on temporal coding in spiking ...
  • S. Sen, S. Venkataramani, and A. Raghunathan, “Approximate computing for ...
  • E. Hunsberger and C. Eliasmith, “Training Spiking Deep Networks for ...
  • B. Rueckauer, I.-A. Lungu, Y. Hu, and M. Pfeiffer, “Theory ...
  • D. Zambrano and S. M. Bohte, “Fast and Efficient Asynchronous ...
  • D. Huh and T. J. Sejnowski, “Gradient Descent for Spiking ...
  • J. Humble, S. Furber, S. L. Denham, and T. Wennekers, ...
  • H. A. Ghiassirad, M. Aliyari Shoorehdeli, and F. Farivar, “Application ...
  • S. S. Liew, M. Khalil-Hani, and R. Bakhteri, “Bounded activation ...
  • J. R. McDonnell, “Training Neural Networks with Weight Constraints,” Proc. ...
  • Y. Yi, Z. Hangping, and Z. Bin, “A new learning ...
  • M. Wang, Y. Chen, J. Liu, and Y. Gu, “Random ...
  • G. Di Muro and S. Ferrari, “A constrained-optimization approach to ...
  • B. O. Ayinde and J. M. Zurada, “Deep Learning of ...
  • F. Han, Q. H. Ling, and D. S. Huang, “Modified ...
  • S. J. Perantonis, N. Ampazis, and S. Varoufakis, “Constrained learning ...
  • J. Chorowski and J. M. Zurada, “Learning understandable neural networks ...
  • M. Courbariaux, Y. Bengio, and J.-P. David, “BinaryConnect: Training Deep ...
  • A. Bouzerdoum and T. R. Pattison, “Neural Network for Quadratic ...
  • Y. Mu, W. Ding, T. Zhou, and D. Tao, “Constrained ...
  • A. Tewari, “(Exponentiated) Stochastic Gradient Descent for L۱ Constrained Problems,” ...
  • J. Zylberberg, J. Cafaro, M. H. Turner, E. Shea-Brown, and ...
  • W. Maass and W. Maass, “To Spike or Not to ...
  • A. A. Faisal, L. P. J. Selen, and D. M. ...
  • T. Branco and K. Staras, “The probability of neurotransmitter release: ...
  • M. D. McDonnell, J. H. Goldwyn, and B. Lindner, “Editorial: ...
  • D. J. Tolhurst, J. A. Movshon, and A. F. Dean, ...
  • J. M. Beck et al., “Probabilistic Population Codes for Bayesian ...
  • R. Moreno-Bote, “Poisson-Like Spiking in Circuits with Probabilistic Synapses,” PLoS ...
  • C. Gulcehre, M. Moczulski, M. Denil, and Y. Bengio, “Noisy ...
  • M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous ...
  • Q. Le, J. Ngiam, Z. Chen, D. H. Chia, and ...
  • K. He, X. Zhang, S. Ren, and J. Sun, “Deep ...
  • حکم آبادی, ع., ذاکری, آ., & شرافت, ا. (۲۰۱۷). ...
  • نمایش کامل مراجع