ساختار و اصول یادگیری در شبکه های عصبی
سال انتشار: 1404
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 52
فایل این مقاله در 10 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
EESCONF15_049
تاریخ نمایه سازی: 9 آبان 1404
چکیده مقاله:
شبکه های عصبی مصنوعی (Artificial Neural Networks) به عنوان یکی از ارکان اصلی یادگیری ماشین، طی دهه های اخیر نقش چشم گیری در تحول فناوری های هوشمند ایفا کرده اند. این مقاله با هدف تبیین ساختارهای پایه ای و اصول بنیادین یادگیری در شبکه های عصبی تدوین شده است. در ابتدا، به تاریخچه شکل گیری مفاهیم نوروسایبرنتیکی پرداخته می شود و سپس ساختارهای اصلی مانند شبکه های پیش خور (Feedforward)، بازگشتی (RNN, LSTM)، و کانولوشنی (CNN) مورد بررسی قرار می گیرند. اجزای کلیدی شبکه های عصبی مانند نورون مصنوعی، وزن ها، بایاس، توابع فعال سازی و ساختار لایه ها تشریح شده اند. در ادامه، اصول یادگیری در این شبکه ها شامل قاعده Hebbian، الگوریتم انتشار برگشتی خطا (Backpropagation)، روش های بهینه سازی گرادیان نزولی، و قضیه تقریب پذیری جهانی تحلیل شده اند. همچنین به چالش هایی نظیر ناپدید شدن یا انفجار گرادیان، یادگیری مادام العمر، و یادگیری ساختاری پرداخته شده است. هدف از این مقاله، نه تنها بررسی مفهومی و نظری ساختار و یادگیری در شبکه های عصبی، بلکه تبیین کاربردی آن در توسعه مدل های هوشمند و آینده پژوهی در زمینه هوش مصنوعی است. در پایان، مقاله با تاکید بر مسیرهای نوین پژوهشی شامل یادگیری زیستی، یادگیری مقاوم در برابر فراموشی، و الگوریتم های کم مصرف، چشم انداز تحقیقات آتی را ترسیم می کند. این نوشتار به عنوان مرجعی جامع برای پژوهشگران، دانشجویان و طراحان الگوریتم های یادگیری عمیق قابل استفاده است.
کلیدواژه ها:
نویسندگان
نیما گرشاسبی
کارشناسی ارشد مهندسی برق، دانشگاه صنعتی خواجه نصیرالدین طوسی