مروری بر ترانسفورماتورهای از پیش آموزش دیده

سال انتشار: 1403
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 214

فایل این مقاله در 20 صفحه با فرمت PDF قابل دریافت می باشد

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

STCONF07_071

تاریخ نمایه سازی: 20 مرداد 1403

چکیده مقاله:

ترانسفورماتور از پیش آموزشدیده مولد (GPT) یک پیشرفت قابل توجه در حوزه پردازش زبان طبیعی است که ما را به سمت توسعه ماشین هایی سوق می دهد که می توانند با استفاده از زبان به شیوهای بسیار شبیه به زبان انسان ارتباط برقرار کنند. GPTبر اساس معماری ترانسفورماتور، یک شبکه عصبی عمیق طراحی شده برای وظایف پردازش زبان طبیعی است . GPT به دلیل عملکرد چشمگیر خود در انجام وظایف پردازش زبان طبیعی و توانایی مکالمه موثر، محبوبیت قابل توجهی در بین محققان و جوامع صنعتی به دست آورده است و آنها را به یکی از پرکاربردترین و موثرترین مدل ها در پردازش زبان طبیعی و زمینه های مرتبط تبدیل کرده است که انگیزه انجام آن را برانگیخته است . این بررسی این بررسی یک نمای کل ی ازGPT ، از جمله معماری، فرآیند کار، روشهای آموزشی ، فن آوریها ی فعال و تاثیر آن بر برنامه های مختلف ارائه می کند. در این بررسی ، چالش ها و محدودیت های بالقوه GPT را نیز بررسی کردیم . علاوه بر این ، راهحل های بالقوه و مسیرهای آینده را مورد بحث قرار می دهیم . به طور کلی ، هدف این مقاله ارائه یک درک جامع ازGPT ، فناوریهای توانمند، تاثیر آنها بر کاربردهای مختلف ، چالش های نوظهور و راه حل های بالقوه است .

کلیدواژه ها:

ترانسفورماتور از پیش آموزش دیده ، پردازش زبان طبیعی ، هوش مصنوعی

نویسندگان

الهام رمانی

دانشجوی دکتری ، گروه کامپیوتر ،دانشکده فنی و مهندسی ، واحد اراک ، دانشگاه آزاد اسلامی ، اراک