تولید صحنه از روی توصیف متنی با استفاده از یادگیری عمیق
سال انتشار: 1400
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 399
فایل این مقاله در 7 صفحه با فرمت PDF و WORD قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
این مقاله در بخشهای موضوعی زیر دسته بندی شده است:
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
ICMVIP12_020
تاریخ نمایه سازی: 27 فروردین 1401
چکیده مقاله:
مسئله ی تبدیل توصیف متنی به تصویر از جمله ی مسائلی است که امروزه بسیار مورد توجه قرار گرفته است؛ چرا که داده های تصویری نسبت به داده های متنی برای طیف گسترده تری از افراد از جمله کودکان قابل فهم است و همچنین سرعت انتقال و دریافت مفاهیم از داده های تصویری نسبت به داده های متنی بالاتر است. مدلی که بتواند تبدیل متن به تصویر را با کیفیت قابل قبول انجام دهد می تواند در کاربرد های مختلفی مورد استفاده قرار بگیرد. شبکه های عصبی عمیق با قدرت بازنمایی بالای داده ها مهم ترین ابزار برای انجام این تبدیل هستند. در مدل معرفی شده در این مرجع از شبکه های عصبی مختلفی مانند شبکه ی عصبی کانوولوشنال، بازگشتی و بازگشتی کانوولوشنال استفاده شده است. مراحل تبدیل توصیف متنی به تصویر شامل ۱) کدگذاری متن و صحنه و ۲) کدگشایی اشیا و ویژگی های آن ها می شود. در این مدل از شبکه های کانوولوشنال ResNet-۵۰و ResNeXt-۵۰ برای کدگذاری صحنه ی تولیدی استفاده شده است و نتایج حاصل از آن ها مقایسه شده است. آموزش و ارزیابی مدل بر روی مجموعه داده ی AbstractScenes انجام شده است. صحنه های تولید شده توسط مدل کیفیت مطلوبی دارند و ارزیابی کمی نتایج نیز عملکرد قابل قبولی را نشان می دهد.
کلیدواژه ها:
نویسندگان
پرتو چرخ کار
دانش آموخته ی کارشناسی ارشد مهندسی فناوری اطلاعات، آزمایشگاه پژوهشی یادگیری عمیق، گروه مهندسی کامپیوتر، دانشکده مهندسی، دانشکدگان فارابی، دانشگاه تهران، ایران
کاظم فولادی قلعه
استادیار، گروه مهندسی کامپیوتر، دانشکده مهندسی، دانشکدگان فارابی، دانشگاه تهران، ایران