محاسبات لبه ای و اینترنت اشیا: یک رویکرد نوین برای کاهش تاخیر در سیستم های توزیع شده

سال انتشار: 1403
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 108

فایل این مقاله در 15 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

CELCONF04_034

تاریخ نمایه سازی: 21 اسفند 1403

چکیده مقاله:

محاسبات لبه ای به عنوان یک رویکرد نوین در زمینه اینترنت اشیا (IoT) به طور قابل توجهی می تواند به کاهش تاخیر و بهبود عملکرد سیستم های توزیع شده کمک کند. این مطالعه به بررسی تاثیرات محاسبات لبه ای در بهینه سازی پردازش داده ها، تخصیص منابع و افزایش امنیت در سیستم های IoT می پردازد. با پردازش داده ها در نزدیکی منبع تولید، محاسبات لبه ای قادر است زمان پاسخگویی را به طرز چشمگیری کاهش دهد، که این امر به ویژه در کاربردهای حساسی مانند سیستم های نظارت بر سلامت و خودروهای خودران اهمیت دارد. نتایج تحقیقاتی که در این زمینه انجام شده، نشان می دهند که استفاده از فناوری های پیشرفته مانند یادگیری تقویتی فدرال و یادگیری عمیق توزیع شده می تواند به بهبود تخصیص منابع و افزایش دقت مدل های یادگیری ماشین در دستگاه های محدود منابع منجر شود. همچنین، امنیت داده ها نیز یکی از چالش های اساسی در سیستم های IoT به شمار می آید که محاسبات لبه ای می تواند با استفاده از روش های ایمن و کارآمد به آن پاسخ دهد. این مطالعه نشان می دهد که محاسبات لبه ای نه تنها به بهینه سازی عملکرد و کاهش تاخیر کمک می کند، بلکه به تقویت امنیت سیستم ها و افزایش کارایی در استفاده از منابع نیز منجر می شود. به طور کلی، این تحقیق بر اهمیت ادغام محاسبات لبه ای در پروژه های IoT تاکید دارد و پیشنهاد می کند که پژوهشگران و توسعه دهندگان به این فناوری توجه بیشتری داشته باشند تا از قابلیت های بالقوه آن بهره برداری کنند.

کلیدواژه ها:

محاسبات لبه ای ، اینترنت اشیا ، کاهش تاخیر ، سیستم های توزیع شده ، تخصیص منابع ، امنیت ، IoT ، یادگیری تقویتی فدرال ، یادگیری عمیق توزیع شده

نویسندگان

شیما نرگسی

آزمایشگاه داده کاوی، گروه مهندسی کامپیوتر، دانشگاه الزهرا، تهران، ایران

محمدرضا کیوانپور

گروه مهندسی کامپیوتر، دانشکده فنی، دانشگاه الزهرا، تهران، ایران