مجله اینترنتی دیتاسرا
امروز یکشنبه ۴ تیر ۱۳۹۶

مدل زبانی پیگیری تاپیک (موضوع) برای تشخیص گفتار Topic tracking language model for speech recognition

Abstract



In a real environment, acoustic and language features often vary depending on the speakers, speaking styles and topic changes. To accommodate these changes, speech recognition approaches that include the incremental tracking of changing environments have attracted attention. This paper proposes a topic tracking language model that can adaptively track changes in topics based on current text information and previously estimated topic models in an on-line manner. The proposed model is applied to language model adaptation in speech recognition. We use the MIT OpenCourseWare corpus and Corpus of Spontaneous Japanese in speech recognition experiments, and show the effectiveness of the proposed method.



Keywords: Language model; Latent topic model; Topic tracking; On-line algorithm; Speech recognition



چکیده فارسی



در محیط واقعی، مشخصه های زبانی و اکوستیک (صوت شناسی) اغلب بر مبنای گویندگان، سبک گفتار و تغییرات موضوع متفاوت می باشد. به منظور سازش با این تغییرات، رویکردهای تشخیص گفتار که شامل ردیابی پله ای تغییرات محیطی می باشد، توجهات را به سمت خود معطوف کرده است. این مقاله مدل زبانی پیگیری تاپیک را مطرح می کند که بطور سازگارانه، تغییرات را در تاپیک بر مبنای اطلاعات متنی موجود و مدل های تاپیک برآورد شده قبلی به صورت آنلاین دنبال می کند. مدل مطرح شده برای انطباق با مدل زبانی به منظور تشخیص گفتار، کاربرد دارد. ما از مجموعه تحققیات آزاد MIT و مجموعه ای از تحقیقات انجام شده توسط ژاپنی ها در بررسی های مرتبط به تشخیص گفتار استفاده می کنیم و کارایی مدل طرح شده را نشان می دهیم.



کلمات کلیدی: مدل زبانی؛ مدل تاپیک نهفته؛ پیگردی تاپیک؛ الگوریتم آنلاین؛ تشخیص گفتار


مشخصات

مشخصات

توسط: Shinji Watanabe, Tomoharu Iwata مجله: Computer Speech and Language انتشارات: Elsevier سال انتشار: 2011 میلادی تعداد صفحات متن اصلی: 22 تعداد صفحات متن ترجمه: 35 درج در دیتاسرا: ۱۳۹۵/۱۰/۵ منبع: دیتاسرا

خرید فایل ترجمه

خرید فایل ترجمه

عنوان: مدل زبانی پیگیری تاپیک (موضوع) برای تشخیص گفتار حجم: 680.39 کیلوبایت فرمت فایل: pdf قیمت: 24000 تومان رمز فایل (در صورت نیاز): www.datasara.com

فرمت ایمیل صحیح نمی باشد.

گروه نرم افزاری دیتاسرا www.datasara.com

دانلود فایل اصلی

دانلود فایل اصلی

عنوان: Topic tracking language model for speech recognition

رمز فایل
رمز فایل (در صورت نیاز): www.datasara.com

نمای مطلب

1. مقدمه



تشخیص گفتار به عنوان تکنیک امید بخشی در نوشت برداری اتوماتیک از اخبارهای پخش شده، آرشیوهای چندرسانه ای بر روی وب، جلسات، و ضبط سخنرانی ها برای بازیابی اطلاعات می باشد. در این سناریوها، گفتار شامل تغییرات زمانی ایجاد شده توسط تغییر گویندگان، سبک های گفتار، پارازیت های محیطی، و تاپیک می باشد. بنابراین مدل های تشخیص گفتار تغییرات زمانی را در محیط های زبانی و صوت شناختی دنبال می کند. این مقاله تمرکزش را بر روی دنبال کردن تغییرات زمانی در محیط های زبانی همان طور که در شکل 1 نشان داده شده است، قرار می دهد. شکل 1 دنبال کردن تغییرات زمانی را با استفاده از مدل زبانی دینامیک کلام نشان می دهد.



بررسی مدل های زبان دینامیک فراتر از N-gram، تغییراتی را در محیط زبانی ایجاد می کند، که به عنوان تاپیک اصلی در تحقیقات مدل زبانی می باشد. مدل های زبان دینامیک اساسا به دو دسته طبقه بندی می شوند، یعنی مواردی که به تخمین احتمالات کلمه ( N-gram) به طور مستقیم و غیرمستقیم می پردازند. این مدل از احتمالات مربوط به N-gram، با استفاده از متن نهفته ( برای مثال، هزاران کلمه در پیشینه متنی)، علاوه بر احتمالات استاندارد N-gram می پردازد. احتمالات مربوط به N-gram جدید از طریق وارد کردن خطی دو احتمال بدست می آید. تکنیک بکارگرفته شده دیگر در رویکردهای تخمین مستقیم بر مبنای معیار قیاس حداکثر (MAP) می باشد. به این ترتیب، احتمالات مربوط به N-gram از طریق شمارش N-gram بدست می آید، که به صورت خطی در بین دو N-gram قرار می گیرند، که بر خلاف احتمالات مربوط به درون یابی رویکرد نهانگاه می باشد.



شکل 1. دنبال کردن تغییرات زمانی در محیط های زبانی



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



تحلیل توالی کارها (LSA )، در شرایط مربوط به بازیابی اطلاعات در حوزه پردازش زبان طبیعی قاعده مند شده، و نسبت به یک چارچوب احتمالی بر مبنای PLSA، و تخصیص دیریکله (LDA) توسعه می یابد. PLSA و LSA این فرض را مطرح می کنند که نمونه ها در مجموعه جملات قابل مبادله بوده (برای مثال، اسناد در پردازش متن و بخش ها (مجموعه کلام) در پردازش کلام) و به این ترتیب آن ها نمی توانند در ارتباط با پویایی تاپیک باشند به صورتی که نمونه ها بر مبنای سری زمانی بوده و دارای زمان ترتیب می باشند. چندین رویکرد در ارتباط با توسعه PLSA و LSA برای ارتباط با پویایی تاپیک در شرایط بازیابی اطلاعات وجود دارد. بعضی از روش ها تغییرات ناگهانی تاپیک را با تغییر مراحل مد نظر قرار می دهند. این موارد توسط تغییر حالت از یک تاپیک به تاپیک دیگر مدلسازی می شوند. از طرف دیگر، انواع مختلفی از تغییرات تاپیک وجود دارد، به صورتی که تاپیک به تدریج از طریق استمرار عناوین بین چندین کلام تغییر می یابند. این پویایی، از نقطه نظر ارزیابی زمانی تاپیک مدلسازی می گردد، و زمانی حاصل می شود که مدل تاپیک گذشته و کنونی درون یکدیگر قرار گرفته و بار دیگر PLSA و LSA نمی توانند در ارتباط با این پویایی باشند. ما چنین تغییرات تاپیکی را مد نظر قرار داده، و مدل پیگیری تاپیک را برای تحلیل داده وب از طریق بسط دادن LDA مطرح می کنیم تا پارامترهای مستقل زمانی را در احتمالات مربوط به کلمه و تاپیک مد نظر قرار دهیم.



TTM باعث توسعه PLSA و LDA برای دنبال کردن تغییرات در بین کلام با ایجاد پویایی بین پارامترهای مدل تاپیکی کنونی و قبلی می گردد. ایجاد پویایی در رویکرد مربوط به فیلتر کالمن مورد استفاده قرار می گیرد. روش استاندارد کالمن، مقادیر تکراری را به عنوان خروجی سیستم مد نظر قرار می دهد، که توسط توزیع گاسیان مدلسازی می شود. این فرضیات برای مدلسازی زبان مناسب نمی باشد زیرا مدل زبانی مقادیر مجزا را بر مبنای بازدهی سیستم مد نظر قرار می دهد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



مقاله این تاپیک را مد نظر قرار می دهد که تغییرات مربوط به تاپیک که در بالا به بحث گذاشته شد در تشخیص گفتار حائز اهمیت می باشند و همچنین به بحث در مورد تکنیک انطباق مدل زبانی، مدل زبانی پیگیری تاپیک (TTLM) می پردازد که تغییرات تاپیک را در گفتار با تغییر TTM دنبال می کند. TTLM اساسا بر مبنای TTM برای تاپیک آنلاین و بیرون کشیدن احتمالات مربوط به کلمه در بخش 2 فرمول بندی می گردد. با ادغام مدل درون مدل زبانی N گرم و ترکیب آن با انطباق افزایشی بی نشان تشخیص گفتار در بخش 3، TTLM این امکان را برای ما ایجاد می کند که تا به تشخیص انطباق مدل زبانی با دنبال کردن تاپیک بپردازیم. ما همچنین به این بحث می پردازیم که چگونه می توان به تنظیم اندازه مراحل انطباقی افزایشی در درک گفتار بپردازیم، از این رو مشکل می باشد تا ملاک یا واحدهای صفحات وب را برای گفتار بر خلاف بازیابی اطلاعات ایجاد کنیم. برای نشان دادن کارایی TTLM، ما به اجرای بررسی های مربوط به آزمایش تشخیص گفتار با استفاده از گفتارهای ایجاد شده توسط مجموعه برنامه های باز MIT و بازنمایی شفاهی توسط مجموعه اطلاعات جمع آوری شده توسط ژاپنی ها می پردازیم. این بررسی های شامل انطباق مدل زبانی بی نشان برای گفتار می باشد.



مدل زبانی پیگیری تاپیک



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



2.1 مدل تاپیک نهفته



زمانی که به شروع فرمول بندی می پردازیم، ما در ابتدا به تعریف واحدهای کلام بر مبنای توالی کلمات بلند که باعث بهم پیوستگی تمام توالی کلمات در مجموعه رونویسی شده گفتار می شود، می پردازیم. گفتارهای همزمان همانند سخنرانی و توضیحات بر خلاف مجموعه متون دارای واحدهای اندازه مشخص نمی باشند ( برای مثال مقالات در روزنامه و صفحات در وب). به طور کلی، بسیار مشکل می باشد تا واحد های مشخصی را برای گفتار تعیین کنیم، و این مقاله مجموعه ای از گفتارهای پیوسته یا جملات را به صورت بخش هایی نشان داده، و از شاخص مقدار t به عنوان واحدی از تغییرات زمانی در فرمول بندی و بررسی های زیر استفاده می کند.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



که در این فرمول (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) به ترتیب نشان دهنده کلمه (نیاز به دانلود ترجمه) و تاپیک نهفته بوده و آن ها به صورت زنجیره ای توسط زیرمجموعه توالی و (نیاز به دانلود ترجمه) در مقدار t نشان داده می شوند که بصورت واحد زمانی طولانی تری نسبت به یک کلمه می باشد. (نیاز به دانلود ترجمه) نشان دهنده شماره سریال متوالی آخرین کلمه در مقدار t می باشد. به این ترتیب PLSA بر این فرض می باشد که احتمال یونیگرام (نیاز به دانلود ترجمه) در مقدار t در تاپیک تجزیه شده و احتمالات مربوط به کلمه به صورت زیر می باشد:



جدول 1 لیست نمادها



در فرمول قبلی k به عنوان شاخص تاپیک بوده و k تعداد تاپیک می باشد. احتمالات تاپیک (نیاز به دانلود ترجمه) بدین معنی احتمالاتی است که تاپیک k در مقدار t به همراه (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) وجود دارد. زمانی که کلمه (نیاز به دانلود ترجمه) دارای شاخ می باشد یعنی ، احتمالات کلمه (نیاز به دانلود ترجمه) به معنی احتمالاتی می باشد که کلمه l در تاپیک k به همراه (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) وجود دارد. توزیع مشترک داده W و تاپیک نهفته Z توسط پارامتر احتمال تاپیک (نیاز به دانلود ترجمه) و مجموعه ای از پارامترهای احتمالی به صورت زیر نشان داده می شود:



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



علاوه بر معادله 2 و 3، LDA، توزیع پیشین مربوط به احتمالات تاپیک را مد نظر قرار می دهد، که توسط توزیع دیریکله با پارامتر فراتر از (نیاز به دانلود ترجمه) به صورت زیر نشان داده می شود:



توزیع مشترک (نیاز به دانلود ترجمه) از طریق معادله درجه دوم و توزیع پیشین با توجه به (نیاز به دانلود ترجمه) بدست می آید. این معادله نشان می دهد که احتمالات تاپیک (نیاز به دانلود ترجمه) مستقل از مقادیر دیگر بوده، و پویایی مشخصی را نشان نمی دهد.



شکل 2. نمایش گرافیکی مدل زبانی پیگیری تاپیک (TTLM)



2.2 نمایش گرافیکی مدل زبانی پیگیری تاپیک (TTLM)



برای مدلسازی دینامیک احتمالات تاپیک ، TTLM این مورد را فرض می کند که میانگین مربوط به احتمالات تاپیک در مقدار کنونی همانند موارد قبلی می باشد مگر اینکه توسط داده های مورد بررسی جدید نشان داده شود. به طور خاص، ما از توزیع دیریکله زیر استفاده می کنیم، که میانگین احتمالات تاپیک کنونی مشابه میانگین احتمالات قبلی بوده و دقت ان برابر با می باشد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



که در این فرمول (نیاز به دانلود ترجمه) اندازه مربوط به احتمالات دینامیک کلمه را نشان می دهد.



مراحل ایجاد TTLM به صورت زیر می باشد:



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



2. برای هر تاپیک

a) (نیاز به دانلود ترجمه) را از دیریکله بست آورید.



 



3. برای هر کلمه در مقدار t داریم



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



b) (نیاز به دانلود ترجمه) را از فرمول چندجمله ای (نیاز به دانلود ترجمه) بدست آورید.



شکل 2. نمایش گرافیکی ttlm را نشان می دهد، به صورتی که دایره های سایه دار و بدون سایه به ترتیب نشان دهنده متغیرهای مشخص و نهفته می باشند.



2.3 استنباط



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



2.3.1 نمونه بردریGibbs از تاپیک های نهفته



ما به تاپیک های نهفته بر مبنای نمونه برداری Gibbs منحل شده پی می بریم که نیازمند توزیع مشترک اطلاعات و تاپیک های نهفته پارامترهای دقیق (نیاز به دانلود ترجمه) می باشد. این توزیع مشترک از طریق به حاشیه کشاندن توزیع مشترک اطلاعات و تاپیک های نهفته مشروط بر روب تاپیک ها و پارامتر احتمالات کلمه و توزیع پیشین آن ها به صورت زیر نشان داده می شود.



این فرضیه بدین معنا می باشد که پویایی کلمات و احتمالات تاپیک مستقل از یکدیگر می باشند، که در بخش قبلی به شرح آن پرداخته شد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



که در این فرمول (نیاز به دانلود ترجمه) به عنوان تابع گاما می باشد. (نیاز به دانلود ترجمه) شمارش کلمات در مقدار t می باشد، (نیاز به دانلود ترجمه) شمارش کلمه بر مبنای تاپیک k در مقدار t، و (نیاز به دانلود ترجمه) به عنوان شمارش شاخص کلمه مرتبط به تاپیک k در مقدار t می باشد. بنابراین، توزیع مشترک از طریق شمارش کلمات و پارامترهای بالاتر نشان داده می شود .



از معادله 9، نمونه برداری Guibbs به تعیین کلمه (نیاز به دانلود ترجمه) در مقدار t نسبت به تاپیک نهفته با استفاده از تعیین احتمالات زیر می پردازد.



به عنوان مجموعه ای از تاپیک هایی می باشند که شامل واژه (نیاز به دانلود ترجمه) نمی باشد. (نیاز به دانلود ترجمه) نشان دهنده مجموعه لغاتی می باشد که شامل کلمه (نیاز به دانلود ترجمه) نمی باشد. معادله 10 به این معنا می باشد که احتمالات مربوط به انتقال به نسبت شمارش کلمات (نیاز به دانلود ترجمه) همزمان می باشد به ترتیبی که این مقادیر به صورت خطی در احتمالات تخمین زده شده قبلی (نیاز به دانلود ترجمه) و پارامترهای دقیق (نیاز به دانلود ترجمه) قرار می گیرد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



به این ترتیب پارامترهای (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) توسط تخمین احتمالی حداکثر توزیع مشترک حاصل می گردد و صحت احتمال تاپیک (نیاز به دانلود ترجمه) توسط معادله بروز شده زیر به دست می آید.



که در این فرمول به عنوان تابع دیگاما می باشد. همچنین دقت مربوط به کلمه (نیاز به دانلود ترجمه) می تواند به شکل زیر تخمین زده شود.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



با بدست آوردن (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) ، میانگین (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) به صورت زیر به دست می آید:



بنابراینم، احتمالات یونیگرام در مقدار t به ترتیب از طریق قرار دادن (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) در (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) در معادله 2 بدست می آید. معادله 13 به این معنا می باشد که کلمات و احتمالات مربوط به تاپیک از طریق نسبت شمارش کلمات بدست می آید به صورتی که این مقادیر به صورت خطی درون احتمالات تخمین زده شده قبلی و پارامترهای دقیق بدست می آید. نتیجه (نیاز به دانلود ترجمه) مشابه رویکرد تخمینی گرام N بر مبنای معیار قیاسی حداکثر می باشد از این رو رویکرد TTLM و MAP بر مبنای چارچوب بیزی می باشد. بنابراین، TTLM بر مبنای رویکرد تخمینی N گرام MAP علاوه بر پیگیری تاپیک از طریق (نیاز به دانلود ترجمه) می باشد.



توجه داشته باشید که (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) برای پارامترهای توزیع در مقدار (نیاز به دانلود ترجمه) مورد استفاده قرار می گیرند. این الگوریتم آنلاین تنها نیازمند داده هایی در مقدار (نیاز به دانلود ترجمه) بوده و پارامترهای بالاتر در مقدار به منظور تخمین پارامتر در مقدار t ، باعث کاهش زمان محاسبه مورد نیاز و اندازه حافظه می گردد.



2.4 مدل زبانی پیگیری تاپیک از طریق مد نظر قرار دادن وابستگی بلند مدت



اگر ما وابستگی بلندمدت را در دینامیک تاپیک مد نظر قرار دهیم، می بایست ارتباط زمانی را از مقدار تا مقدار (نیاز به دانلود ترجمه) در TTLM مد نظر قرار دهیم.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



به صورتی که



در اینجا، (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) به ترتیب بستگی به پارامترهای بالاتر (نیاز به دانلود ترجمه) و می باشند. به این ترتیب پارامتر TTLM به صورت مشابهی نسبت به مواردی که در بخش 2.3 مورد استفاده قرار گرفته است، حاصل می گردد. در واقع، معادلات برای نمونه برداری Gibbs از تاپیک های نهفته و تخمین احتمال حداکثر توزیع مشترک TTLM به همراه پیوستگی بلندمدت با استفاده از جایگزین کردن موارد زیر با مواردی که در بخش 2.3 مطرح شد حاصل می گردد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



2.4.1 نمونه برداری Gibbs از تاپیک های نهفته

احتمالات معادله 10 به صورت زیر نوشته می شود:



2.4.2 تخمین احتمالات حداکثر از توزیع مشترک



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



میانگین (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) در معادله 13 بصورت زیر نوشته می شود:



بنابراین TTLM بلند مدت می تواند به مدلسازی دینامیک بلندمدت در الگوریتم آنلاین با استفاده از مقادیر قبلی بپردازد. همچنین TTLM همچنین می تواند از مقادیر کنونی و با مد نظر قرار دادن مجموعه پارامترها از مقدار (نیاز به دانلود ترجمه) تا مقدار (نیاز به دانلود ترجمه) و همچنین با تغییر جمع بندی به (نیاز به دانلود ترجمه) در معادله 17-19استفاده کند. اگرچه آن فاقد رابطه علت و معلول می باشد، برنامه های کاربردی آفلاین کارآمد بسیار زیادی در تشخیص گفتار وجود دارد که نیازمند رابطه علت و معلول نمی باشد. این گسترش به عنوان یکی از مزایای TTLM می باشد، بنابراین چنین فرایندی می تواند بر مبنای فیلتر کالمن برای مقادیر مجزا فرمول بندی شده و همچنین می تواند به صورت طبیعی از اطلاعات کنونی و آینده، و همچنین اطلاعات گذشته استفاده کند، که منطق با "اسموتر کالمن" در قیاس با نظریه فیلتر کالمن می باشد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



در عمل، ما گاهی اوقات با مشکلاتی روبرو می شویم، برای مثال، احتمالات یونیگرام حاصل شده از مدل های تاپیک نمی تواند به طور صحیح تخمین زده شود ( برای مثال، به دلیل پرا کندگی اطلاعات) و این موارد باعث تنزل عملکرد در مقایسه با مدل های یونیگرام معمولی می گردد



برای اجتناب از این تنزل، ما به توسعه مدل تاپیک نهفته از معادله 2 به صورت زیر می پردازیم:



که در این فرمول (نیاز به دانلود ترجمه) به عنوان احتمالات کلمه مستقل تاپیک می باشد. این بسط بدین معنی است که احتمالات یونیگرام جدید توسط جاسازی خطی تاپیک و احتمالات یونیگرام کل نشان داده می شود. به این ترتیب، دینامیک احتمالات تاپیک (نیاز به دانلود ترجمه) در معادله 5 و 15 به صورت زیر بسط داده می شود:



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



برای مثال، میزان ترکیب اضافی (نیاز به دانلود ترجمه) به (نیاز به دانلود ترجمه) اصلی پیوست شده است ( یعنی ). توجه داشته باشید که این بسط فرایند تخمین را در بخش استنباط چارچوب TTLM در بخش های 2.3 و 2.4 تغییر نمی دهد. ما می توانیم (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) را با آماده سازی احتمالات کلمه مستقل (نیاز به دانلود ترجمه) و مد نظر قرار دادن مولفه (نیاز به دانلود ترجمه) در فرایند تخمین بدست آوریم. این نوع از تکنیک جاسازی در مدلسازی زبان بسیار شناخته شده می باشد به ترتیبی که پارامترهای ضریب تاثیر جاسازی شده تحت تاثیر الگوریتم EM حداکثر احتمالات بر روی داده های نگهداشت شده تخمین زده می شود. جنبه کلیدی مرتبط به این جاسازی در رویکرد مطرح شده این می باشد که تخمین پارامتر ضریب تاثیر جاسازی شده (نیاز به دانلود ترجمه) شامل الگوریتم تصادفی EM در TTLM می شود. بنابراین نیازی نداریم تا به آماده سازی داده های توسعه داده شده برای الگوریتم حداکثر احتمالات EM بپردازیم، و تخمین پارامتر در چارچوب TTLM و همچنین پارامترهای دیگر احتمالات تاپیک به اجرا در می آید.



بنابراین TTLM بطور اساسی بر مبنای چارچوب TTM برای تاپیک آنلاین و استخراج احتمالات کلمه در بخش 2 بدست می آید. بخش بعدی به معرفی اجرای TTLM برای انطباق افزایشی مدل های زبانی غیر نظارتی می پردازد.



3. اجرای TTLM برای انطباق افزایشی مدل های زبانی غیر نظارتی



این مقاله اساسا تمرکزش را بر روی تغییرات زمانی تاپیک ها قرار می دهد. بنابراین، ما تنها پویایی احتمالات تاپیک (نیاز به دانلود ترجمه) را مد نظر قرار می دهیم در حالی که احتمالات کلمه برای هر مقدار به صورت ثابت می باشد ( یعنی ). در واقع، زمانی که احتمالات کلمه در فرایند انطباق مدل زبانی دارای تعدادی از پارامترها می باشد، تخمین احتمالات کلمه باعث ایجاد مشکلات آموزشی می گردد. ابتدا از طریق LDA معمول با استفاده از اطلاعات آموزشی بدست می آید. به این ترتیب TTLM در ارتباط با انطباق افزایشی مدل زبانی از طریق بکارگیری مراحل زیر تشخیص داده می شود.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



2) TTLM، مدل یونیگرام کنونی (نیاز به دانلود ترجمه) را با استفاده از توالی کلمه حاصل شده و پارامترهای TTLM تخمین زده شده قبلی بروز می کند.



3) برای بدست اوردن مدل N گرام کنونی ، تکنیک مقیاس بندی بر مبنای حاشیه یونیگرام دینامیک مورد استفاده قرار می گیرد، که در بخش 3.1 مورد بحث قرار می گیرد.



4. نتایج تصدیق شده با استفاده از رمزگشا با مدل N گرام تطبیقی (نیاز به دانلود ترجمه) حاصل می گردد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



شکل 3. انطباق پله ای مدل های زبانی در تشخیص گفتار بر مبنای TTLM.



بنابراین، می توانیم به درک انطباق پله ای مدل های زبانی به صورت آنلاین در چارچوب TTLM بپردازیم. بخش های فرعی زیر به شرح تکنیک مقیاس بندی یونیگرام در اجرا و بحث در مورد اندازه مقادیر و وابستگی بلندمدت می پردازد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



زمانی که ما احتمالات را با استفاده از TTLM بدست آوردیم، می توانیم به محاسبه احتمالات گرام N از TTLM با مقیاس بندی احتمالات N گرام اصلی با نسبت احتمالات یونیگرام در مقایسه با موارد اصلی بپردازیم. این مقاله از حاشیه یونیگرام دینامیک ( یا اطلاعات مجزای حداقل) به عنوان تکنیک مقیاس بندی یونیگرام استفاده می کند، که احتمالات قبلی را نیز در احتمالات N گرام مد نظر قرار می دهد. در ابتدا ما به تعریف فاکتور مقیاس گذاری یونیگرام برای کلمه l می پردازیم.



که در این فرمول (نیاز به دانلود ترجمه) و (نیاز به دانلود ترجمه) به عنوان احتمال یونیگرام اصلی و احتمالات یونیگرام جدید حاصل شده از TTLM می باشد. (نیاز به دانلود ترجمه) به عنوان یک پارامتر میزان سازی می باشد. به این ترتیب احتمالات مربوط به N گرام جدید به همراه توالی کلمه به صورت زیر نشان داده می شود.



که



و



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



3.2 اندازه مقدار و پیوستگی بلندمدت



در ارتباط با تنظیمات اندازه، این مقاله واحد بر مبنای کلام را مد نظر قرار می دهد، یعنی واحد مقدار تشکیل شده از چندین کلام می باشد. این بدین دلیل می باشد که تشخیص گفتار اتوماتیک آشکارسازی فعالیت صوتی (VAD)، و مدل تاپیک آنلاین بر مبنای واحدهای کلامی مطلوب می باشد. بنابراین، این مقاله به صورت تجربی به بررسی این فرایند می پردازد که چگونه می توان به مرتب کردن اندازه مناسبی ازمجموعه کلام در بخش 4.1 پرداخت. به ویژه اینکه در بررسی های ثانویه، ما از یک گفتار به عنوان اندازه مقدار استفاده کرده و و از اصطلاحات زیادی در سابقه وابستگی بلندمدت برای مدلسازی دینامیک تاپیک در مجموعه کلام ها استفاده می کنیم. دلیل مربوط به پذیرش یک گفتار در هر بخش این می باشد که یک گفتار به عنوان کوچکترین واحد بوده، که اطلاعات مربوط به تاپیک را در خود نگهداری کرده و بصورت کارآمدی در سیستم های تشخیص گفتار اتوماتیک ادغام می گردد. اگرچه تعداد اصطلاحات در کل زمان هنگام گفتار ثابت می باشد، پارامتر اندازه گیری (نیاز به دانلود ترجمه) که نشان دهنده میزان مشارکت کلام یک اصطلاح خاص نسبت به احتمالات تاپیک، به صورت اتوماتیک از اطلاعات مربوط به کلام به کلام دیگر بر مبنای بخش 2.4 تخمین زده می شود. بنابراین TTLM به صورت اتوماتیک اصطلاحات بی استفاده را در طول زمان بر مبنای این فرایند تخمین نادیده می گیرد. بنابراین، TTLM مجموعه سوابق طولانی مدت را مد نظر قرار می دهد، البته اگر فرایند تخمین پارامتر اندازه گیری به طور کاملی فعالیت داشته باشد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



ما آزمایشات مربوط به تشخیص گفتار را انجام می دهیم تا کارایی TTLM را برای انطباق پله ای مدل های زبانی انجام دهیم. ما از دو فعالیت مرتبط به تشخیص گفتار استفاده می کنیم؛ مجموعه اطلاعات MIT، و مجموعه اطلاعات همزمان حاصل شده توسط ژاپنی ها. MIC-OCW اساسا متشکل از سخنرانی های کلاسی می باشد، در حالی که CSJ اساسا متشکل از ارائه کنفرانس ها می باشد. این موارد توسط گویندگان در ارتباط با یک موضوع می باشد ( برای مثال فیزیک، علوم کامپیوتر). در چنین مواردی، تغییر تدریجی تاپیک ها و پیوستگی تاپیک ها بین کلام ها حفظ می گردد. بنابراین TTLM برای مدلسازی تغییرات تاپیک در این گفتارها مناسب می باشد، و ما به بررسی کارایی دنبال کردن تغییرات تاپیک با استفاده از TTLM می پردازیم.



4.1 آزمایشات انجام شده در ارتباط با مجموعه اطلاعات MIT



ما اولین آزمایش خود را بر مبنای MIT-OCW به منظور بررسی کارایی TTLM در کاربردهای ساده مدل های تاپیک آنلاین بدون استفاده از تکنیک درون یابی، که در بخش 2.5 به شرح آن پرداخته شده است، و بدون انطباق پارامترهای میزان سازی در تکنیک مقیاس بندی یونیگرام که در بخش 3.1 به شرح آن پرداخته شده است، انجام می دهیم. معمولا، مدل های تاپیک آنلاین اسناد یا صفحات وب را مد نظر قرار می دهد، که بر مبنای واحد زمانی شامل بیش از صدها کلمه می باشد. به هر حال مشکل می باشد تا واحد بلندتری از گفتار را ایجاد کنیم. در واقع بیشتر فعالیت های مربوط به تشخیص گفتار چنین گفتارهای بلندی را د نظر قرار نداده و مجموعه های مربوط به آن ها برای ما اطلاعاتی را در مورد واحدهای مرتبط به اسناد فراهم نمی کند. بنابراین در اولین بررسی ما، به عنوان تلاش مقدماتی، ما به بررسی ارتباط بین عملکرد تشخیص گفتار و طول واحد با استفاده از TTLM می پرداخته و همچنین به بررسی کارایی ارتباطات بلندمدت TTLM می پردازیم.



جدول 2



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



ما MIT-OCW را برای این آزمایشات قبول داریم زیرا کنفرانس های MIT بر مبنای کنفرانس های کلاسی می باشند، که هر یک از آن ها بیش از یک ساعت به طول می انجامد و شامل متوسط بیش از 10000 کلمه می باشد. بنابراین می توانیم از واحدهای شبه اسناد برای TTLM ) برای مثال اگر ما از 64 کلام ( تقریبا 500 واژه به عنوان یک مجموعه استفاده کنیم، می توانیم به ارزیابی دینامیک 20 دوره بپردازیم). ما همچنین مثال هایی از پویایی تاپیک را در کنفرانس مربوط به فیزیک مد نظر قرار می دهیم.



4.1.1 شرایط مربوط به تشخیص کلام



داده های آموزشی متشکل از 147 سخنرانی از MIT-OCW ( 128 ساعت اطلاعات کلامی و 6.2M رونوشت کلمه) می باشد. اطلاعات برآورد شده متشکل از 4 کنفرانس می باشد. جدول 2 اطلاعات مدل زبانی و صوت شناختی را نشان می دهد. ما از مدل صوت شناسی معیار استفاده می کنیم، که به عنوان مدل مرتبط به شرایط با چگالی پیوسته HMM می باشد. پارامترهای HMM از طریق بکارگیری داده های آموزشی MIT-OCW بر مبنای رویکرد احتمالاتی حداکثر معمول تخمین زده می شود. مدل های زبانی و واژگانی از طریق بکارگیری اطلاعات آموزشی MIT-OCW حاصل می گردند. ما از مدل 3 گرام با استفاده از تکنیک هموارسازی تورینگ استفاده می کنیم. نسبت واژه های خارج (OOV) برابر با 1.4% و پیچیدگی مجموعه تست شده 194.1 می باشد. برای رمزگشایی ما از رمزگشای بر مبنای WFST استفاده می کنیم. ساختار مدل صوت شناختی و رویکرد رمزگشای LVCSR با استفاده از پلتفرم تشخیص گفتار NTT به نام SOLON به اجرا در می آید. در طی مرحله انطباق، ما تعداد تاپیک ها را در 50 تثبیت می کنیم. ما همچنین به اثبات فاکتور مقیاس بندی (نیاز به دانلود ترجمه) در معادله 23 می پردازیم. برای مثال ما از یونیگرام دینامیک کنسر و همکارانش به عنوان تکنیک مقیاس بندی یونیگرام برای اجرا و بررسی ارزیابی ساده تاثیر مدل های تاپیک استفاده می کنیم.



این فعالیت از مجموعه کلام به عنوان مقدار استفاده می کند. کلام از طریق بخش بندی گفتار با استفاده از آشکارسازی عملیات صوتی حاصل می گردد. ما سپس چندین اندازه از واحد بخش بندی شده را که حاوی 16، 32، 64، 128، و 256 کلام برای استفاده در بررسی ها می باشد، آماده می کنیم. این کنفرانس ها در مجموعه ارزیابی شده شامل متوسط 1422 کلام بوده، و تعداد متوسط این بخش ها در یک کنفرانس برابر با 89، 45، 23، و 6 می باشد.



4.1.2 نتایج تجربی



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



سپس ما به بررسی عملکرد TTLM در ارتباط با طول ارتباطات بلند مدت در TTLM برای اندازه ثابت همان طور که در شکل 4 نشان داده شده است می پردازیم. نتایج تشخیص مبنا از طریق استفاده از مدل زبانی 3 گرام بدست می آید.



زمانی که S=0 می باشد، این رویکرد به صورت نیمه گروهی LDA بوده، که به تخمین احتمالات یونیگرام با استفاده از اطلاعات در بخش ها می پردازد. این فرایند ارتباط زمانی را بین بخش های مختلف مد نظر قرار نمی دهد. از شکل 4، ما در می یابیم که TTLM بیش از 4% بهتر از LDA نیمه گروهی می باشد. این نتایج به این معنا می باشد که مد نظر قرار دادن دینامیک تاپیک در بین این بخش ها در TTLM در ارتباط با کنفرانس ها موثر می باشد.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.



شکل 4. ارتباط تاثیر بلندمدت TTLM بر روی طول



اگرچه TTLM شرایط بلند مدت را مد نظر قرار می دهد؛ اگر فرایند تخمین پارامتر اندازه گیری دارای کارایی کاملی باشد، که در بخش 3.2 به بحث آن پرداخته شد، عملکرد به طور جزئی در S= 20 کاهش می یابد. بنابراین نتایج نشان می دهد که TTLM عملا مرتبط به تنظیمات S برای تخمین پارامترهای اندازه گیری می باشند. به هر حال ، ما دریافته ایم که این تنزل بسیار بالا نمی باشد و تنظیمات مربوط به S زمانی که به انتخاب مقدار S در محدوده 15 می پردازیم، حساس نمی باشد.



به این ترتیب ما به بررسی عملکرد TTLM با مد نظر قرار دادن اندازه بخش با تغییر تعداد گفته ها از 16 تا 256 ، همان طور که در شکل 5 نشان داده شده است می پردازیم. ما همچنین به بررسی عملکرد LDA با استفاده از اطلاعات تطبیقی برای هر گفتار می پردازیم. با توجه به اندازه کوچک این بخش ها، عملکرد TTLM به طور عمده به دلیل مشکلات تفکیک اطلاعات موجود برای تخمین پارامترهای TTLM بهبود نمی یابد. به دنبال افزایش اندازه بخش ها، عملکرد تشخیص از عملکرد مبنا به انداز0.6% در 64 کلام در هر بخش بهبود می یابد. به هر حال، نتایج مربوط به 128 و 256 کلام بار دیگر بهبود نیافته و عملکرد همانند LDA می باشد. این نتایج منطقی می باشد زیرا TTLM به طور نظری با مجموعه LDA ادغام شده در صورتی که ما اندازه بخش ها را برای مد نظر قرار دادن تطبیق کلام افزایش می دهیم. از این رو، چنین نتایجی نشان می دهد که TTLM پویایی تاپیک را دنبال می کند اگر ما اندازه بخش ها مناسبی را مد نظر قرار دهیم.



جهت مشاهده متن کامل، فایل ترجمه را دانلود نمایید.


 برچسب ها: 

ISI

Paper

Papers

Article

Articles

مقاله ISI

مدل زبانی

دانلود ISI

ترجمه مقاله

تشخیص گفتار

دریافت مقاله

ISI کامپیوتر

پیگردی تاپیک

مقاله انگلیسی

Persian Paper

خرید ترجمه ISI

Language model

Topic tracking

ترجمه مقاله ISI

مدل تاپیک نهفته

الگوریتم آنلاین

Persian Article

دانلود مقاله ISI

مقاله رایگان ISI

خرید ترجمه مقاله

دانلود ترجمه ISI

دانلود مقاله جدید

مقالات رایگان ISI

دریافت مقالات ISI

On-line algorithm

مقاله ISI با ترجمه

مقاله انگلیسی جدید

خرید ترجمه انگلیسی

فروش ترجمه انگلیسی

مقاله ISI کامپیوتر

Latent topic model

Speech recognition

دانلود مقاله انگیسی

ترجمه مقاله انگلیسی

دانلود ISI کامپیوتر

مقالات معتبر انگلیسی

ترجمه مقالات انگلیسی

دریافت مقاله انگلیسی

ترجمه مقاله کامپیوتر

دانلود مقاله جدید ISI

دریافت مقاله کامپیوتر

مقاله انگلیسی با ترجمه

مقاله انگلیسی کامپیوتر

دانلود رایگان مقاله ISI

خرید ترجمه ISI کامپیوتر

Translate English Paper

دانلود مقالات رایگان ISI

ترجمه مقاله ISI کامپیوتر

دانلود مقاله ISI با ترجمه

دانلود مقاله انگلیسی جدید

دریافت مقاله انگلیسی جدید

دانلود مقاله ISI کامپیوتر

مقاله رایگان ISI کامپیوتر

خرید ترجمه مقاله کامپیوتر

دانلود ترجمه ISI کامپیوتر

Translate English Article

ترجمه مقالات معتبر انگلیسی

دانلود مقاله جدید کامپیوتر

مقالات رایگان ISI کامپیوتر

دریافت مقالات ISI کامپیوتر

Translate Paper in English

دانلود مقاله انگلیسی رایگان

دانلود رایگان مقاله انگلیسی

دانلود مقاله انگلیسی رایگان

دریافت مقاله انگلیسی رایگان

مقاله ISI با ترجمه کامپیوتر

مقاله انگلیسی جدید کامپیوتر

خرید ترجمه انگلیسی کامپیوتر

فروش ترجمه انگلیسی کامپیوتر

دانلود مقاله انگیسی کامپیوتر

ترجمه مقاله انگلیسی کامپیوتر

Translate Article in English

دانلود مقاله انگلیسی با ترجمه

دریافت مقاله انگلیسی با ترجمه

مقالات معتبر انگلیسی کامپیوتر

ترجمه مقالات انگلیسی کامپیوتر

دریافت مقاله انگلیسی کامپیوتر

دانلود مقاله جدید ISI کامپیوتر

مقاله انگلیسی با ترجمه کامپیوتر

Translation of Paper in English

دانلود رایگان مقاله ISI کامپیوتر

دانلود مقالات رایگان ISI کامپیوتر

Translation of Article in English

دانلود مقاله ISI با ترجمه کامپیوتر

دانلود مقاله انگلیسی جدید کامپیوتر

دریافت مقاله انگلیسی جدید کامپیوتر

ترجمه مقالات معتبر انگلیسی کامپیوتر

دانلود مقاله انگلیسی رایگان کامپیوتر

دانلود رایگان مقاله انگلیسی کامپیوتر

دانلود مقاله انگلیسی رایگان کامپیوتر

دریافت مقاله انگلیسی رایگان کامپیوتر

دانلود مقاله انگلیسی با ترجمه کامپیوتر

دریافت مقاله انگلیسی با ترجمه کامپیوتر

مطالب پیشنهادی
متأسفانه موردی یافت نشد.
ناحیه کاربری

فرمت ایمیل صحیح نمی باشد. ایمیل خود را وارد نمایید.

رمز عبور خود را وارد نمایید.

گزیده ها
پرواز با اتومبیل پرنده: اتومبیل تی‌اف-ایکس مجوز پرواز گرفت
گزیده های پر بیننده ترین اخبار روز و هفته
جشن کریسمس در نقاط مختلف جهان (+عکس)
گزیده های وبگردی و اخبار جذاب
بازیافت ماشین های قدیمی به روشی نو!
گزیده های وبگردی و اخبار جذاب
لوکس ترین خودروهای دنیا در نمایشگاه اتومبیل لس آنجلس (+عکس)
گزیده های پر بیننده ترین اخبار روز و هفته
مجله اینترنتی دیتاسرا
کلیه حقوق مادی و معنوی این وبسایت متعلق به گروه نرم افزاری دیتاسرا می باشد.
Copyright © 2015