تشخیص حس در گفتار فارسی با استفاده از ویژگی های آکوستیکی

سال انتشار: 1392
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 1,205

فایل این مقاله در 8 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

ISAV03_163

تاریخ نمایه سازی: 29 تیر 1393

چکیده مقاله:

بیان احساس در ارتباطات روز مره انسان از جایگاه ویژه ای برخوردار است یکی از بسترهای نمود احساس، گفتار است از این رو یکی از جنبه های مهم درطبیعی سازی ارتباط میان انسان و ماشین تشخیص حس گفتار و تولید بازخورد متناسب با احساس درک شده است علیرغم پیشرفت هایگسترده در حوزه پردازش گفتار استخراج و درک احساس پنهان در گفتار انسان (مانند خشم، شادی و غیره) ازیک سو و تولید گفتار احساسی مناسب از سوی دیگر همچنان یکی از چالش های مهم برای ساخت ماشین هایه وشمند محسوب می شود در این مقاله یک سیستم وابسته به گوینده برای تشخیص حس گفتار فارسی ارائه شده است منظور از تشخیص وابسته به گوینده حس گفتار، شناسایی خودکار حالت احساسی یک یا چند گوینده خاص با استفاده از نمونه های گفتاری آنهاست. در طراحی سیستم معرفی شده از روش های آماری استفاده شده و معماری آن شامل دو بخش اصلی استخراج ویژگی و آموزش مدل می شود در مرحله استخراج ویزگی 28 ویژگی آکوستیکی شامل اطلاعات مربوط به فرکانس گام، ساخت سه فرمنت اول و دامنه از نمونه های گفتار احساسی دو گوینده (یک مرد و یک زن) به طور مجزا و به ازای شش حس مختلف خشم، تنفر، ترس، شادی، غم و خنثی استخراج شده است پس از تشکیل بردار ویژگی سه روش دسته بندی شامل ماشین بردار پشتیبان، k نزدیکترین همسایه و شبکه عصبی آموزش داده شده اند در نهایت سه روش پیاده سازی شده با استفاده از پاره گفتارهای احساسی داده آزمون مورد ارزیابی قرار گرفته و دقت آنها مشخص شد با مقایسه عملکرد سه روشد سته بندی مشخص شد که بیشترین دقت برای گوینده مرد و زن به ترتیب مربوط به ماشین بردار پشتیبان (97%) و شبکه عصبی (93%) بوده است این در حالیا ست که در آزمون انسانی میانگین دقت انسان در تشخیص حس پاره گفتارهای احساسی داده آزمون 78% و کمتر از دقت روشه ای دسته بندی گزارش شده است.

نویسندگان

پریا جمشیدلو

دانشگاه صنعتی شریف دانشکده مهنندسی کامپیوتر

منصوره کرمی

دانشگاه صنعتی شریف دانشکده مهندسی کامپیوتر

حسین صامتی

دانشگاه صنعتی شریف دانشکده مهندسی کامپیوتر

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • J. Nicholson, K. Takahashi and R. Nakatsu, "Emotion recognition in ...
  • M. E. Ayadi, M. S. Kamel, and F. Karray, "Survey ...
  • V. Hozjan, Z. Kacic, _ C ontext -independent multilingual emotion ...
  • V. Petrushin, "Emotion recognition in speech signal: experimental study, development ...
  • B. Schuller, G. Rigoll and M. Lang, "Speech emotion recognition ...
  • T. New, S. Foo and L. De Silva, "Speech emotion ...
  • B. Schuller, G. Rigoll and M. Lang, "Hidden Markov model-based ...
  • C. Breazeal, L. Aryananda, "Recognition of affective communicatie intent in ...
  • B. Schuller, "Towards intuitive speech interaction by the integration of ...
  • N. Keshtiari, M. Kuhlmann, M. Eslami and G. Klann-Delius, A ...
  • نمایش کامل مراجع