透過您的圖書館登入
IP:3.85.211.2
  • 學位論文

基於辨識錯誤模型之語音文件抽象標題產生

Abstractive Headline Generation for Spoken Documents with ASR Error Modeling

指導教授 : 李琳山

摘要


近年來網路語音資訊量迅速增長,遠超過人們消化吸收資訊的能力;此外,不像純文字文件,語音文件因為不易呈現在螢幕上而難以瀏覽與搜尋,所以語音文件的自動標題產生顯得更加重要。因此,本論文之主軸在探討數位語音文件之抽象自動標題產生(Abstractive Headline Generation for Spoken Documents)。首先,訓練深層模型都會需要大量的訓練語料,就本論文的語音文件自動標題產生而言,需要數以百萬計的語音文件-參考標題配對,這樣數量的語料在蒐集上是有很大困難的。相對而言,純文字文件-參考標題配對容易取得,因此本論文提出一套基於混淆矩陣(Confusion Matrix)與LG-加權有限狀態轉換器(LG-Weighted Finite State Transducer)的辨識錯誤模型以學習語音辨識結果中的辨識錯誤結構(ASR Error Structure),並用以將純文字文件轉換成模擬語音文件,作為深層自動標題產生模型之訓練資料。此外,傳統深層自動標題產生模型中會加入專注機制提升模型表現,但訓練資料中的辨識錯誤會影響專注機制的效果,因此,本論文將辨識錯誤模型與專注機制結合,藉由辨識信心分數(Confidence Score)修正專注權重(Attention Weights),以改善語音文件自動標題產生模型。最後,本論文也探討提出的模型架構在不同語言(中文、英文)和使用不同語音單位(詞、字、聲韻母、音節、音位)建構之辨識錯誤模型之表現。

參考文獻


[16] Hsin-Min Wang, Berlin Chen, Jen-Wei Kuo, Shih-Sian Cheng, et al., “Matbn: A mandarin chinese broadcast news corpus,” International Journal of Computational Linguistics and Chinese Language Processing, vol. 10, no. 2, pp. 219–236, 2005.
[2] Alexander M Rush, Sumit Chopra, and JasonWeston, “A neural attention model for abstractive sentence summarization,” in EMNLP, 2015.
[4] Geoffrey E Hinton, Simon Osindero, and Yee-Whye Teh, “A fast learning algorithm for deep belief nets,” Neural computation, vol. 18, no. 7, pp. 1527–1554, 2006.
[7] Sepp Hochreiter and J¨urgen Schmidhuber, “Long short-term memory,” Neural computation, vol. 9, no. 8, pp. 1735–1780, 1997.
[9] Konstantin Lopyrev, “Generating news headlines with recurrent neural networks,” CoRR, abs/1512.01712, 2015.

延伸閱讀