بررسی الگوریم های هش برای مدیریت دادهای بزرگ، کاربردهای آن ها در فشرده سازی دادها و چالش های موجود در این زمینه
سال انتشار: 1404
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 13
فایل این مقاله در 8 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
DMECONF10_229
تاریخ نمایه سازی: 1 مرداد 1404
چکیده مقاله:
با رشد روزافزون دادههای بزرگ در حوزههای مختلف، چالشهای مرتبط با ذخیرهسازی، پردازش و تحلیل این دادهها اهمیت فزایندهای یافتهاند. یکی از راهکارهای موثر در این زمینه، بهرهگیری از الگوریتمهای هش و روشهای فشردهسازی است که ضمن کاهش نیاز به منابع سختافزاری، دقت تحلیل داده را نیز حفظ میکنند. این مقاله مروری با تمرکز بر بررسی الگوریتمهای هش، کاربرد آنها در فشرده سازی دادههای حجیم و تحلیل چالشهای موجود در این مسیر تدوین شده است. در این مطالعه، ابتدا پیشرفتهای علمی در حوزه تخمین کاردینالیتی و خالصهسازی دادهها از الگوریتمهای کلاسیک مانند شمارش احتمالاتی تا مدلهای پیشرفته تری همچون HyperLogLog و Sketchهای غیرقابل ترکیب بررسی شده است. همچنین جنبههای عملی و اقتصادی همچون قیمتگذاری ذخیرهسازی در محیطهای ابری و نقش تحلیل ناهنجاری در دادههای سریع نیز مورد توجه قرار گرفتهاند. نتایج حاصل از مقایسه این مقالات نشان میدهد که روشهای نوین توانستهاند با استفاده از اصول تئوری اطلاعات و ساختارهای دادهی بهینه، تعادل قابل قبولی بین دقت تخمین، مصرف منابع و سرعت پردازش برقرار کنند؛ هرچند چالشهایی نظیر ادغامناپذیری، محدودیتهای نظری و انتخاب الگوریتم متناسب با نوع داده همچنان از مسائل باز و قابل بررسی در این حوزه به شمار میروند.
کلیدواژه ها:
نویسندگان
فرزانه کاویانی
دانشجوی تحصیلات تکمیلی مهندسی کامپیوتر، گروه کامپیوتر، دانشکده هوش مصنوعی و فناوریهای اجتماعی و پیشرفته، واحد اصفهان (خوراسگان)، دانشگاه آزاد اسلامی، اصفهان، ایران
محمد آبادی حبیب عابدینی
گروه کامپیوتر، دانشکده هوش مصنوعی و فناوریهای اجتماعی و پیشرفته، واحد اصفهان (خوراسگان)، دانشگاه آزاد اسلامی، اصفهان، ایران