تئوری تعمیم دهی (Generalization Theory) در یادگیری عمیق
سال انتشار: 1404
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 1
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
CONFETTRR01_2111
تاریخ نمایه سازی: 7 بهمن 1404
چکیده مقاله:
یادگیری عمیق با ایجاد تحولات بنیادین در بسیاری از حوزه ها، امروزه به ابزاری قدرتمند برای حل مسائل پیچیده تبدیل شده است. با این حال، یکی از چالش های اساسی در این حوزه، اطمینان از تعمیم دهی مدل ها به داده های جدید و ناشناخته است. این مسئله، به عنوان "تعمیم دهی" شناخته می شود و نیازمند درک عمیق از اصول ریاضی و آماری زیربنایی است. این مقاله با هدف ارائه درکی جامع از تئوری تعمیم دهی در یادگیری عمیق، به بررسی مفاهیم کلیدی نظیر overfitting (بیش برازش)، underfitting (کم برازش)، تئوری بی ضدصدا (No Free Lunch Theorem) و تعادل بایاس-واریانس (Bias-Variance Tradeoff) می پردازد. همچنین، به معرفی و بررسی ابزارهای ریاضیاتی مهمی نظیر VC Dimension و Rademacher Complexity به عنوان شاخص های توانایی تعمیم دهی مدل ها اشاره شده و نقش آن ها در تحلیل عملکرد مدل ها تشریح می گردد. در نهایت، روش های رایج و موثری برای بهبود تعمیم دهی مدل های یادگیری عمیق، از جمله regularization (مانند L۱ و L۲ regularization)، data augmentation (افزایش داده) و dropout (حذف تصادفی نورون ها) مورد بحث و بررسی قرار می گیرند. این مقاله با ارائه تحلیل نظری و کاربردی، به توسعه روش های یادگیری عمیق با قابلیت تعمیم دهی بالاتر کمک می کند.
کلیدواژه ها:
نویسندگان
علیرضا مبینی دهکردی
(کارشناسی علوم کامپیوتر)