国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

語(yǔ)音文摘研究綜述

2013-06-25 09:00:36張劍潘曉衡鄧見光
關(guān)鍵詞:書面文摘研究者

張劍 潘曉衡 鄧見光,2

(1. 東莞理工學(xué)院 工程技術(shù)研究院,廣東東莞 523808;2. 華南理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,廣州 510006)

語(yǔ)音交流是人們?nèi)粘I钪凶钪饕妥畋憷男畔贤浇椤C刻烊藗兺ㄟ^互聯(lián)網(wǎng)和手持設(shè)備,接觸到大量的多媒體信息,比如:電話語(yǔ)音信息、廣播和電視節(jié)目、視頻課程、各類電話視頻會(huì)議等。通過直接收聽語(yǔ)音或收看視頻來(lái)獲取自己所需信息,是非常費(fèi)時(shí)和低效的。為了幫助人們能快捷地從這些信息當(dāng)中抽取感興趣的部分,越來(lái)越多的研究者將研究興趣放在自動(dòng)語(yǔ)音理解與組織的任務(wù)上面[1]:比如:語(yǔ)音識(shí)別[2]、語(yǔ)音文檔檢索[3]、語(yǔ)音文摘[4]、語(yǔ)音文檔信息抽?。?]、主題分析與組織[6]等。

自動(dòng)語(yǔ)音理解與摘要技術(shù)作為語(yǔ)音文檔理解與管理系統(tǒng)的核心技術(shù)之一,主要完成從大量的原始語(yǔ)音中抽取出含有最有信息量或者與用戶最“感興趣”的語(yǔ)音部分的任務(wù)。語(yǔ)音文摘抽取與書面文檔文摘抽取相比,是一個(gè)新興和待發(fā)展研究領(lǐng)域。早在20 世紀(jì)50年代,書面文檔文摘抽取技術(shù)的研究就已經(jīng)開始發(fā)展,現(xiàn)已拓展出更多新的方向,如:多文檔、多語(yǔ)言、和多媒體文摘抽?。?]。文摘抽取大體上可以分為摘取式文摘抽取(Extractive Summarization)和概括式文摘抽取(Abstractive Summarization)兩類。摘取式文摘抽取是按照目標(biāo)壓縮率從原始文檔中選取最重要的或最有指示性的部分來(lái)構(gòu)成簡(jiǎn)略版本的過程;而概括式摘要的提取,是根據(jù)原始語(yǔ)音文檔的主要意思,重新組織語(yǔ)句,生成一個(gè)概括性的簡(jiǎn)略版本。概括式文摘因其沒有包含足夠的信息量,無(wú)法滿足人們的需求[8]。相比之下,抽取式摘要能幫助人們更準(zhǔn)確地理解整個(gè)文檔,并且更快地定位到感興趣的信息?,F(xiàn)今文檔理解與摘要的研究主要集中在抽取式摘要上。

論文將從兩個(gè)方面即:1)書面文檔文摘技術(shù)在語(yǔ)音文檔文摘提取的應(yīng)用研究;2)新興的基于結(jié)構(gòu)建模的語(yǔ)音理解與文摘的研究,對(duì)自動(dòng)語(yǔ)音摘要領(lǐng)域現(xiàn)有的研究成果進(jìn)行綜述。

1 從書面文檔文摘到語(yǔ)音文摘

1.1 書面文檔摘要提取方法的應(yīng)用

對(duì)于目前有一些研究者把用于書面文檔摘要提取的方法應(yīng)用到語(yǔ)音文檔理解與摘要任務(wù)中[9-13]。

Christensen 等[9]提出了如何將報(bào)刊新聞?wù)崛〖夹g(shù)應(yīng)用于新聞廣播語(yǔ)音摘要的提取。首先,他們同樣把語(yǔ)音文摘的提取問題看作是一個(gè)二元分類問題,即:先用特征向量來(lái)表示每一段語(yǔ)音,再通過二元分類器對(duì)每一語(yǔ)音段進(jìn)行判斷,認(rèn)定該語(yǔ)音段是或者不是文摘中的語(yǔ)句。他們發(fā)現(xiàn)與在報(bào)刊新聞?wù)蝿?wù)中的作用相比,語(yǔ)音段在文檔中的位置特征對(duì)于新聞廣播語(yǔ)音摘要提取的作用不是那么大。同時(shí)發(fā)現(xiàn),沒有任何一組特征的作用特別突出,而包括結(jié)構(gòu)特征如:句子位置、長(zhǎng)度等和詞匯特征如:詞條權(quán)重、專有名詞等在內(nèi)的特征組合的作用最大。另外,他們還發(fā)現(xiàn)語(yǔ)音識(shí)別的錯(cuò)誤給人們閱讀所生成摘取式文摘造成了相當(dāng)大的困難,尤其是抽取出的摘要沒有段落和標(biāo)準(zhǔn)語(yǔ)句的停頓,給人們理解文摘帶來(lái)了很大的挑戰(zhàn)。

Zhu & Penn[10]提出使用最大邊界相關(guān)(Maximal Marginal Relevance,MMR)權(quán)重[14]作為單一的特征來(lái)表示每一語(yǔ)音段,然后再訓(xùn)練摘要提取模型,以提高摘要提取性能。他們首先計(jì)算候選語(yǔ)音段與待生成文摘的語(yǔ)音文檔核心主題的相關(guān)度,以及候選語(yǔ)音段與已選語(yǔ)音段間的相似度,進(jìn)而計(jì)算出該候選語(yǔ)音段的MMR 值,即:

Hori & Furui[11]提出了對(duì)每個(gè)語(yǔ)音段進(jìn)行摘要權(quán)重計(jì)算的方法來(lái)抽取摘要,這種摘要權(quán)重包含了語(yǔ)音段中每個(gè)詞的重要權(quán)重的累加以及從語(yǔ)音段中抽取出的各類詞法或句法特征的權(quán)重。

Kolluru et al.[12]提出了一種基于多層感知器網(wǎng)絡(luò)的文摘提取算法。首先,他們根據(jù)語(yǔ)音識(shí)別器生成的語(yǔ)音段對(duì)應(yīng)抄本語(yǔ)句以及識(shí)別置信值,來(lái)刪除一些置信值低的候選語(yǔ)音段;然后,根據(jù)剩余的語(yǔ)音段所對(duì)應(yīng)的詞條權(quán)重和專有名詞特征來(lái)訓(xùn)練多層感知器網(wǎng)絡(luò),用于文摘提取。他們發(fā)現(xiàn)該系統(tǒng)生成的摘要,在用疑問-回答(question-answering)評(píng)測(cè)準(zhǔn)則和ROUGE 分析評(píng)測(cè)準(zhǔn)則評(píng)判時(shí),性能表現(xiàn)良好;但如果用主觀流暢度準(zhǔn)則評(píng)判時(shí),摘要稍顯不暢。

Chen et al.[13]提出了一種摘取式文摘算法:首先計(jì)算語(yǔ)音文檔對(duì)應(yīng)的口語(yǔ)文本中潛在主題信息的概率,并以此作為文檔的一個(gè)有效特征;然后對(duì)于同一語(yǔ)音文檔和候選文摘用傳統(tǒng)的向量空間模型與潛在語(yǔ)義索引模型以及隱馬爾可夫模型(Hidden Markov Model,HMM)等模型進(jìn)行表示,再通過比較不同的模型,來(lái)判定該候選文摘對(duì)此語(yǔ)音文檔的概括程度。并在臺(tái)灣收集的中文廣播新聞文檔上進(jìn)行了驗(yàn)證實(shí)驗(yàn),結(jié)果表明該潛在主題信息概率能提高文摘提取的準(zhǔn)確度。

以上這些算法都是傳統(tǒng)的書面文摘抽取方法在語(yǔ)音文檔方面的遷移應(yīng)用,而語(yǔ)音文檔所對(duì)應(yīng)的識(shí)別口語(yǔ)抄本中,語(yǔ)句邊界不清晰,表達(dá)意思不連貫,含有不少語(yǔ)音識(shí)別錯(cuò)誤;并且摘要本身沒有包含結(jié)構(gòu)信息,不易理解。如果只是應(yīng)用那些書面文摘抽取方法處理語(yǔ)音文檔,所得到的文摘是無(wú)法讓人滿意的。如何利用語(yǔ)音文檔中所特有的語(yǔ)音信息,成為了研究者關(guān)注的熱點(diǎn)。

1.2 語(yǔ)音特征在語(yǔ)音文摘抽取的應(yīng)用

有研究者[4,12,15-20]發(fā)現(xiàn),從語(yǔ)音文檔的語(yǔ)音信息當(dāng)中,可以提取出能幫助抽取摘要的語(yǔ)音特征,比如:能量,F(xiàn)0,韻律等。這些現(xiàn)有的語(yǔ)音文摘系統(tǒng)已經(jīng)表明:語(yǔ)音文檔中,說話人的講話語(yǔ)氣、方式與講話內(nèi)容在整個(gè)文檔中的重要程度有緊密聯(lián)系。

Hori & Furui[16]提出了一種基于有限狀態(tài)轉(zhuǎn)換器的多級(jí)語(yǔ)音文摘抽取算法。將語(yǔ)音識(shí)別的解碼過程與摘要抽取過程綜合在單一的有限狀態(tài)轉(zhuǎn)換器完成,并在演講語(yǔ)音數(shù)據(jù)庫(kù)上進(jìn)行了驗(yàn)證實(shí)驗(yàn)。

Inoue et al.[15]提出了基于詞法特征和語(yǔ)音特征來(lái)表示語(yǔ)音文檔中的各個(gè)詞匯的方法,并通過統(tǒng)計(jì)算法來(lái)判斷每個(gè)詞匯是否屬于文摘。并且在日文廣播新聞?wù)Z料庫(kù)上進(jìn)行了驗(yàn)證實(shí)驗(yàn)。

Mckeown et al.[4]對(duì)書面文檔摘要提取的研究進(jìn)行了綜述,并討論了如何將書面文檔摘要提取的方法應(yīng)用于語(yǔ)音文檔中。對(duì)抽取廣播新聞和會(huì)議錄音這兩種不同類型的語(yǔ)音文檔摘要過程中出現(xiàn)的挑戰(zhàn)進(jìn)行了描述,并比較了各特征在摘要抽取的作用。發(fā)現(xiàn)對(duì)于會(huì)議錄音,韻律特征(prosodic)和詞法特征與會(huì)議主題的轉(zhuǎn)換相關(guān)。還發(fā)現(xiàn)其中貢獻(xiàn)最大的特征是語(yǔ)音的停頓和關(guān)鍵短語(yǔ),而這兩類特征同時(shí)也可以幫助多人對(duì)話語(yǔ)音文檔中的語(yǔ)音分割。

Maskey & Hirschberg[17]提出了將語(yǔ)音特征與句法特征,詞法特征結(jié)合起來(lái),進(jìn)行語(yǔ)音理解并抽取摘要,并且在英文廣播新聞?wù)Z音進(jìn)行了驗(yàn)證實(shí)驗(yàn),發(fā)現(xiàn)最好性能的摘要抽取模型是用所有特征的組合來(lái)表示語(yǔ)音段所訓(xùn)練出來(lái)的。所用的語(yǔ)音特征包括音調(diào)(pitch),能量(energy),語(yǔ)速(speaking rate)以及語(yǔ)句持續(xù)時(shí)間等。最好的文摘抽取F-measure 為0.544(滿分為1.0)。將語(yǔ)音特征與結(jié)構(gòu)特征(structural features)相結(jié)合訓(xùn)練而成的文摘系統(tǒng),其文摘抽取性能為:ROUGE scores 介于0.68 到0.76。

Maskey & Hirschberg[18]進(jìn)一步提出了無(wú)需識(shí)別語(yǔ)音文檔,直接應(yīng)用語(yǔ)音信息進(jìn)行文摘抽取的基于隱馬爾科夫模型算法。模型中的隱狀態(tài)的值表示語(yǔ)音段包括或不包括在文摘中,而表示各語(yǔ)音段的語(yǔ)音特征向量是模型中的觀測(cè)向量。模型解碼的最佳序列對(duì)應(yīng)的就是語(yǔ)音文檔的摘要。實(shí)驗(yàn)結(jié)果表明:單用語(yǔ)音特征向量表示語(yǔ)音段來(lái)進(jìn)行語(yǔ)音文摘的抽取,是可行的。這就避免了語(yǔ)音識(shí)別的錯(cuò)誤對(duì)語(yǔ)音摘要抽取的影響。

2 結(jié)構(gòu)信息在語(yǔ)音文摘抽取的應(yīng)用

目前大多數(shù)研究者沒有充分利用隱藏在語(yǔ)音文檔中的結(jié)構(gòu)信息來(lái)幫助抽取文摘,下面將對(duì)結(jié)構(gòu)信息在文摘抽取的應(yīng)用進(jìn)行介紹。

2.1 結(jié)構(gòu)信息在書面文摘抽取的應(yīng)用

有研究者[21-22]提出了如何從書面文檔中提取結(jié)構(gòu)特征,并將特征用于文檔的主題分割和文摘的抽取。

Barzilay et al.[21]提出了一種無(wú)監(jiān)督學(xué)習(xí)算法用于特定領(lǐng)域書面文檔的內(nèi)容導(dǎo)航,即文檔主題選擇以及結(jié)構(gòu)組織。同時(shí)將算法應(yīng)用于信息重要性排序和文摘抽取。實(shí)驗(yàn)表明:抽取具有結(jié)構(gòu)組織信息的文摘,比傳統(tǒng)文摘抽取算法所得無(wú)結(jié)構(gòu)摘要,要更易讓人理解。

Branavan et al.[22]提出了一種結(jié)構(gòu)化區(qū)分性(structured discriminative)算法用于書面文檔目錄的生成。它使用了大量基于習(xí)語(yǔ)和語(yǔ)料庫(kù)的文本特征。目錄作為一種導(dǎo)航性文摘,非常適合用于檢索長(zhǎng)篇書面文檔。典型的目錄主要是列舉出目標(biāo)文檔中的所有主題,并提供各個(gè)主題在文檔中所處的位置。

有研究者[23-25]提出了主題建模算法用于提取書面文檔庫(kù)的摘要,如:電子郵件、科技論文和報(bào)紙等。

Blei et al.[23]提出了Latent Dirichlet Allocation(LDA)算法,一種非監(jiān)督學(xué)習(xí)生成式概率模型,并用于書面文檔庫(kù)的文摘提取。LDA 是一種三級(jí)層次的貝葉斯模型。文檔庫(kù)相關(guān)的每一主題都由主題詞集合的主題間相關(guān)度加權(quán)的向量表示。每一個(gè)主題又由一關(guān)鍵詞列表來(lái)表示。每篇文檔由主題詞集合的概率分布來(lái)表示。在對(duì)書面文檔上下文進(jìn)行建模時(shí),各主題的概率分布就用于表示該文檔的主題。Blei& Lafferty 進(jìn)一步提出了LDA 的兩種擴(kuò)展算法:the Dynamic Topic Model(DTM)[24]和the Correlated Topic Model(CTM)[25]。

以上主題分割算法如果用于對(duì)語(yǔ)音文檔所對(duì)應(yīng)的口語(yǔ)抄本進(jìn)行處理,有如下兩個(gè)缺陷:1)忽略了語(yǔ)音文檔中各個(gè)主題出現(xiàn)次序和所展現(xiàn)的故事流(story flow);2)自動(dòng)語(yǔ)音識(shí)別生成抄本中的識(shí)別錯(cuò)誤對(duì)于算法性能有明顯的影響。

鑒于此,有研究者[18,26-28]提出了針對(duì)語(yǔ)音文檔或者其口語(yǔ)抄本的結(jié)構(gòu)信息建模,實(shí)驗(yàn)結(jié)果表明:有效的結(jié)構(gòu)建模信息有助于主題分割和文摘提取。下面將對(duì)這一類研究成果進(jìn)行介紹。

2.2 基于結(jié)構(gòu)建模的語(yǔ)音文摘的抽取

Eisenstein et al.[26]提出了新的基于無(wú)監(jiān)督學(xué)習(xí)詞匯粘連驅(qū)動(dòng)的貝葉斯算法,用于口語(yǔ)抄本的主題分割。該算法能將詞匯粘連特征與關(guān)鍵短語(yǔ)特征相結(jié)合。并且在口語(yǔ)抄本語(yǔ)料庫(kù)上進(jìn)行了驗(yàn)證實(shí)驗(yàn)。

Tatar et al.[27]和Kawahara et al.[28]都提出了應(yīng)用Hearst 算法[29]對(duì)長(zhǎng)篇的口語(yǔ)抄本進(jìn)行主題分割,并運(yùn)用主題信息幫助進(jìn)行文摘抽取以及語(yǔ)音識(shí)別系統(tǒng)的主題適應(yīng)性訓(xùn)練。

Hirohata et al.[18]考慮到在演講語(yǔ)音當(dāng)中,人們總是把重要的部分放在演講的介紹部分和總結(jié)部分,提出了一種基于結(jié)構(gòu)特征的文摘提取算法。首先應(yīng)用Hearst 算法[29]找到介紹部分和總結(jié)部分的邊界,然后通過計(jì)算各語(yǔ)句與演講的介紹部分和總結(jié)部分之間的相似度,來(lái)判斷語(yǔ)句是否作為文摘語(yǔ)句。

語(yǔ)音文檔及由語(yǔ)音識(shí)別系統(tǒng)產(chǎn)生的口語(yǔ)抄本信息,提供了文本信息和語(yǔ)音信息[30],而之前所提的算法當(dāng)中,都沒有考慮語(yǔ)音信息。目前已有少數(shù)研究者已經(jīng)開始考慮同時(shí)使用語(yǔ)音信息和文本信息,來(lái)對(duì)語(yǔ)音文檔中的結(jié)構(gòu)信息進(jìn)行建模。而提取出的結(jié)構(gòu)信息同時(shí)又可以幫助文摘的抽取。

有研究者發(fā)現(xiàn)語(yǔ)音特征能用于對(duì)語(yǔ)音文檔結(jié)構(gòu)的建模[30-32]。Hirschberg & Nakatani[33]研究了講話風(fēng)格(書面語(yǔ)和口語(yǔ))對(duì)語(yǔ)音文檔主題分割算法的性能影響。并且比較了在同一講話片段的開始、中間、結(jié)尾部分語(yǔ)音特征的不同。

3 結(jié)語(yǔ)

本文對(duì)近年來(lái)語(yǔ)音文摘領(lǐng)域所取得的研究成果進(jìn)行了全面的綜述。一方面,由于語(yǔ)音識(shí)別系統(tǒng)所產(chǎn)生口語(yǔ)抄本含有不可避免的錯(cuò)誤,對(duì)傳統(tǒng)書面文檔摘要提取方法在語(yǔ)音文檔的應(yīng)用,造成了不小的挑戰(zhàn)。另一方面,語(yǔ)音文檔中含有豐富的語(yǔ)音信息,而這些信息對(duì)于語(yǔ)音文檔的結(jié)構(gòu)乃至文摘的提取都有重要的作用,而如何充分運(yùn)用這些語(yǔ)音信息,則是更具有挑戰(zhàn)性的任務(wù)。

基于結(jié)構(gòu)建模的語(yǔ)音理解和文摘提取,能夠幫助人們從語(yǔ)音文檔中抽取出隱含的結(jié)構(gòu)信息,更快速準(zhǔn)確地理解語(yǔ)音。在未來(lái)幾年中,它將成為本領(lǐng)域研究熱點(diǎn)和前沿。如何分析深層次語(yǔ)音文檔結(jié)構(gòu);尋找對(duì)抽取語(yǔ)音文檔結(jié)構(gòu)幫助更大的新特征;應(yīng)用不同的機(jī)器學(xué)習(xí)算法,提高抽取語(yǔ)音文檔結(jié)構(gòu)的性能,并運(yùn)用抽取的結(jié)構(gòu)信息,改善語(yǔ)音理解與文摘抽取的性能等都將成為研究者關(guān)注的主要方向。

[1]Lee L,Chen B. Spoken document understanding and organization[J]. Signal Processing Magazine,IEEE,2005,22(5):42-60.

[2]Rabiner L. A tutorial on hidden Markov models and selected applications in speech recognition[J]. Proceedings of the IEEE,1989,77(2):257-286.

[3]Schauble P. Multimedia information retrieval:content-based information retrieval from large text and audio databases[M]. Springer,1997.

[4]McKeown K,Hirschberg J,Galley M,et al. From text to speech summarization[C].Proceedings of the IEEE International Conference on Acoustics,Speech,and Signal Processing(ICASSP’05),2005,5:997-1000.

[5]Furui S. Automatic speech recognition and its application to information extraction[C]. Proceedings of the 37th annual meeting of the Association for Computational Linguistics on Computational Linguistics,Association for Computational Linguistics,1999:11-20.

[6]Kurimo M. Thematic indexing of spoken documents by using self-organizing maps[J]. Speech Communication,2002,38(1):29-45.

[7]Mani I,Maybury M. Advances in automatic text summarization[M]. MIT Press,1999:293.

[8]Teufel S,Moens M. Summarizing scientific articles:experiments with relevance and rhetorical status[J]. Computational Linguistics,2002,28(4):409-445.

[9]Christensen H,Gotoh Y,Kolluru B,et al. Are extractive text summarization techniques portable to broadcast news?[C]. Proceedings of the 2003 IEEE Workshop on Automatic Speech Recognition and Understanding,IEEE,2003:489-494.

[10]Zhu X,Penn G. Comparing the roles of textual,acoustic and spoken language features on spontaneous-conversation summarization[C]. Proceedings of the Human Language Technology Conference of the NAACL,Companion Volume:Short Papers on XX. Association for Computational Linguistics,2006:197-200.

[11]Hori C,F(xiàn)urui S. Advances in automatic speech summarization[J]. Proc Eurospeech 2001,2001,3:1771-1774.

[12]Kolluru B,Christensen H,Gotoh Y. Multi-stage compaction approach to broadcast news summarization[C]. Proc of Eurospeach 2005,2005.

[13]Chen B,Yeh Y M,Huang Y M,et al. Chinese Spoken Document Summarization Using Probabilistic Latent Topical Information[C]. Proceedings of the IEEE Insternational Conterence 2006 on Acousties,Speech and Signal Proccssing,IEEE,2006,I:969-972.

[14]Inoue A,Mikami T,Yamashita Y. Improvement of speech summarization using prosodic information[C]. Proceedings of the International Conterence 2004 on Speech Prosody,2004.

[15]Hori C,F(xiàn)urui S. A new approach to automatic speech summarization[J]. IEEE Transactions on Multimedia,2003,5(3):368-378.

[16]Maskey S,Hirschberg J. Comparing lexical,acoustic/prosodic,structural and discourse features for speech summarization[J]. Proceeding of Interspeech 2005,2005:621-624.

[17]Maskey S,Hirschberg J. Summarizing speech without text using hidden markov models[C]. Proceedings of the Human Language Technology Conference of the NAACL,Companion Volume:Short Papers,Association for Competation Linguistics,2006:89-92.

[18]Hirohata M,Shinnaka Y,Iwano K,et al. Sentence extraction-based presentation summarization techniques and evaluation metrics[C]. Proceedinging of the ICASSP 2005,2005,I:1065-1068.

[19]Chen Y T,Chiu H S,Wang H M. A unified probabilistic generative framework for extractive spoken document summarization[C]. Proceedings of the Europcan Conterence on Speech Communteation Technology,2007:2805-2808.

[20]Zhang J,Chan H Y,F(xiàn)ung P. Improving lecture speech summarization using rhetorical information[C]. Proceeding of the IEEE Workshop 2007 on Automatic Speech Recognition & Understanding,IEEE,2007:195-200.

[21]Barzilay R,Lee L. Catching the drift:Probabilistic content models,with applications to generation and summarization[C]. Proceedings of HLT-NAACL,2004:113-120.

[22]Branavan S R K,Deshpande P,Barzilay R. Generating a table-of-contents[C]. Proceedings of the Annual Meeting-Association For Computational Linguistics 2007,2007,45(1):544.

[23]Blei D M,Ng A M,Jordan M I. Latent dirichlet allocation[J]. The Journal of Machine Learning Research,2003,3:993-1022.

[24]Blei D M,Lafferty J D. Dynamic topic models[C]. Proceedings of the 23rdinternational conference on Machine learning,ACM,2006:113-120.

[25]Blei D M,Lafferty J M. A correlated topic model of science[J]. The Annals of Applied Statistics,2007,1(1):17-35.

[26]Eisenstein J,Barzilay R. Bayesian unsupervised topic segmentation[C]. Proceedings of the Conference on Empirical Methods in Natural Language Processing,Association for Computational Linguistics,2008:334-343.

[27]Tatar D,Tamaianu-Morita E,Mihis A,et al. Summarization by logic segmentation and text entailment[J]. Advances in Natural Language Processing and Applications,2008:15 –26.

[28]Alota N,Nemoto Y,Kawahara T. PLSA-based topic detection in meetings for adaptation of lexicon and language mode[C]. Proceeding of Interspeech 2007,2007:602-605.

[29]Hearst M A. TextTiling:Segmenting text into multi-paragraph subtopic passages[J].Computational Linguistics,1997,23(1):33-64.

[30]Garofolo J,Auzanne C G P,Voorhees E M. The TREC spoken document retrieval track:A success story[J]. NIST Special Publication SP,2000(246):107-130.

[31]Halliday M A K. Intonation and grammar in British English[M]. The Hague:Mouton,1967.

[32]Ladd D R. Intonational Phonology[M]. Cambridge University Press,2008.

[33]Hirschberg J,Nakatani C H. A prosodic analysis of discourse segments in direction-giving monologues[C]. Proceedings of the 34th annual meeting on Association for Computational Linguistics,Association for Computational Linguistics,1996:286-293.

猜你喜歡
書面文摘研究者
瘋狂英語(yǔ)·初中版(2022年10期)2022-05-30 10:48:04
高等教育中的學(xué)生成為研究者及其啟示
IAPA文摘
研究者稱,經(jīng)CRISPR技術(shù)編輯過的雙胞胎已出生??茖W(xué)將如何回應(yīng)?
研究者調(diào)查數(shù)據(jù)統(tǒng)計(jì)
中華手工(2018年6期)2018-07-17 10:37:42
文摘
寶藏(2017年2期)2017-03-20 13:16:46
書面表達(dá)
醫(yī)生注定是研究者
參考答案
2013年《時(shí)代英語(yǔ)》高三第九期參考答案
建宁县| 政和县| 永平县| 呼图壁县| 涞源县| 连山| 深圳市| 寿宁县| 皋兰县| 淮安市| 揭东县| 东乌| 宁武县| 黎平县| 乌兰县| 嵊州市| 清流县| 咸丰县| 绥江县| 英吉沙县| 满城县| 佳木斯市| 上饶县| 霍林郭勒市| 安溪县| 安图县| 平定县| 龙胜| 原阳县| 黄大仙区| 洪湖市| 马边| 临安市| 开阳县| 交城县| 获嘉县| 拉孜县| 邢台市| 临西县| 多伦县| 广灵县|