بررسی چالش ها و پیشرفت های اخیر در طراحی الگوریتم های پردازش داده های کلان

سال انتشار: 1403
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 126

فایل این مقاله در 13 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

EMCCONF21_071

تاریخ نمایه سازی: 18 اسفند 1403

چکیده مقاله:

این پژوهش به بررسی عملکرد الگوریتم های پردازش داده های کلان در چهار جنبه اصلی شامل سرعت پردازش، مقیاس پذیری، بهره وری منابع و مصرف انرژی پرداخته است. الگوریتم های مورد بررسی شامل MapReduce، Apache Spark، پردازش جریانی (Stream Processing) و یادگیری عمیق (Deep Learning) هستند. نتایج نشان می دهد که Apache Spark در مقیاس پذیری و سرعت پردازش عملکرد بسیار بالایی دارد و به ویژه در شرایط پردازش داده های توزیع شده بهینه عمل می کند. MapReduce نیز با توان مقیاس پذیری بالا برای داده های حجیم مناسب است، هرچند که مصرف منابع بیشتری دارد. پردازش جریانی به ویژه در تحلیل داده های زمان حقیقی، عملکرد خوبی از خود نشان داده، ولی بهره وری انرژی آن متوسط است. یادگیری عمیق با دقت بالای پردازش، به ویژه برای داده های پیچیده و تحلیل های عمیق، عملکرد مطلوبی دارد، ولی به دلیل نیاز به منابع محاسباتی زیاد، در محیط هایی با محدودیت منابع ممکن است مناسب نباشد. این مطالعه نشان می دهد که انتخاب الگوریتم مناسب برای پردازش داده های کلان بستگی به نیازهای خاص پروژه و منابع موجود دارد.

کلیدواژه ها:

پردازش داده های کلان ، الگوریتم های توزیع شده ، Apache Spark ، MapReduce ، پردازش جریانی ، یادگیری عمیق

نویسندگان

مجید فروغی

دانش آموخته کارشناسی ارشد مدیریت بازرگانی، بازرگانی بین الملل دانشگاه آزاد اسلامی واحد الکترونیک