童 威,黃啟萍
(1.安徽文達信息工程學院,安徽合肥 231201;2.安徽電氣工程職業(yè)技術學院,安徽合肥 230051)
[通訊作者]黃啟萍(1985- ),女,助教,碩士研究生,從事經(jīng)濟學研究。
隨著互聯(lián)網(wǎng)和移動互聯(lián)的快速發(fā)展,微博作為一種新興的社交平臺,滿足了人們信息獲取、日常交流等目的[1]。企業(yè)微博是其中一種微博群體,作為企業(yè)發(fā)布產(chǎn)品信息,了解行業(yè)動態(tài)的新興平臺。利用數(shù)據(jù)挖掘和文本分析等技術對企業(yè)微博語料進行分析挖掘,可以幫助企業(yè)更加方便地進行產(chǎn)品營銷、客戶溝通,把握行業(yè)信息動態(tài),獲取行業(yè)相關的商業(yè)信息,從中挖掘出更多的商機,促進企業(yè)發(fā)展。因此,對企業(yè)微博的分析研究具有重要的研究意義和良好的應用價值。
微博主題分析是其中一個基礎任務,通過對企業(yè)微博進行主題分析可以發(fā)現(xiàn)企業(yè)特征,查找相似企業(yè)和構建企業(yè)產(chǎn)品主題變化圖[2]。對于主題分析的任務情況,作者主題模型ATM(Author Topic Model)能對語料作者和單詞同時建模,從而解決類似于微博主題分析任務,探索企業(yè)與微博主題之間的相關性。然而巨大的微博數(shù)量給作者主題分析工作帶來了難度:一方面作者主題模型訓練復雜度高,耗時長,需要改進其采樣算法來降低復雜度;另一方面隨著語料規(guī)模增大,單機無法訓練,需要借助大數(shù)據(jù)技術進行并行化訓練。然而目前主題模型的并行化訓練主要集中在LDA主題模型上,作者主題模型的并行化訓練仍是空白。
作者主題模型的求解通常采用吉布斯采樣算法求解,其每一輪迭代對語料中每個單詞的采樣公式如公式(1)所示。
(1)
在作者主題模型的標準吉布斯采樣算法中,每采樣出一個文檔的單詞,需對全局計數(shù)進行更新,并且后續(xù)單詞的采樣依賴于更新后的全局計數(shù)。此種采樣方式不適合作者主題模型的并行化訓練[3]。
在大規(guī)模微博語料的作者主題分析任務中,對作者主題模型進行采樣優(yōu)化,需要改進作者主題模型采樣算法,避免實時更新全局計數(shù)。并且降低每個單詞采樣算法的復雜度。采樣優(yōu)化之后,再借助Spark大數(shù)據(jù)平臺實現(xiàn)大規(guī)模作者主題模型的訓練過程[4]。
本文提出的作者主題模型延遲更新采樣思想在每輪迭代過程中不更新全局計數(shù),每輪迭代完成之后統(tǒng)一更新全局計數(shù),其相應的采樣MCATM算法如下:
MCATM算法的單輪采樣:
步驟1 對于文檔中的每個單詞,采樣得到其作者和主題根據(jù)和驗分布:
(2)
MCATM算法和MHATM算法在采樣時,同時采樣作者和主題,本文提出ECATM采樣算法,將此二維采樣問題進行分解。首先分析在知道單詞w的作者a的情況下,算法只需采樣得到單詞的主題即可,采樣主題k如式(3)所示。
(3)
經(jīng)研究得到了作者主題模型的延遲更新采樣算法MCATM和相應的優(yōu)化采樣算法MHATM和ECATM之后,作者主題模型訓練基于上述三種采樣方式進行并行化訓練。其并行化訓練流程圖如圖1所示。步驟1和步驟2為預處理步驟。作者主題模型的訓練是迭代過程,迭代按照步驟3至步驟8進行。步驟8結束之后更新DataRDD的單詞的作者和主題,以便于繼續(xù)進行下一輪的迭代。
圖1 作者主題模型并行化訓練流程圖
在性能評估分析中,首先驗證本文提出算法的正確性,其次評估大規(guī)模作者主題模型訓練的數(shù)據(jù)擴展性。
通過計算模型迭代過程中的混淆度值(perplexity)來判斷不同算法是否最終收斂到同一精確度[5]。試驗選用weibodata和networkdata語料來進行測試,結果如圖2所示,參照標準為作者主題模型的標準吉布斯采樣算法ATM。
圖2 語料正確性測試
從圖2可知,ATM、MCATM、MHATM和ECATM經(jīng)過一定輪次的迭代后收斂到同一精度,證明了MHATM、ECATM、MCATM算法的正確性。
圖3 數(shù)據(jù)擴展性實驗結果
在數(shù)據(jù)擴展性實驗中,本文選擇不同規(guī)模的數(shù)據(jù),在不同的采樣算法上進行訓練,統(tǒng)計迭代時長來分析,在不同規(guī)模數(shù)據(jù)下算法的擴展性,數(shù)據(jù)擴展性在并行環(huán)境下進行[6]。實驗環(huán)境設置核數(shù)均為256,每個executor分配核數(shù)8個,模型的主題統(tǒng)一設置為1000,超參數(shù)alpha為0.01,beta為0.01。統(tǒng)計前50輪迭代的平均時間,實驗結果如圖3所示。
從圖3可知,ECATM算法具有很好的語料擴展性。MHATM增長幅度緩于MCATM算法,有良好的語料擴展性能。MCATM算法隨著語料增大每輪迭代時間基本呈線性增長趨勢。
針對作者主題模型,本文提出了一種作者主題模型的延遲更新采樣思想,以及相應的吉布斯采樣優(yōu)化算法MCATM算法。在此基礎上提出了兩大優(yōu)化算法,即MHATM和ECATM算法。實驗結果表明,本文提出的MCATM、MHATM和ECATM采樣優(yōu)化算法,能與原始作者主題模型的吉布斯采樣算法達到同樣的收斂程度,有著較好的數(shù)據(jù)擴展性。
[參考文獻]
[1]張曉飛.關于企業(yè)微博營銷策略問題的探討[J].太原城市職業(yè)技術學院學報,2013(5):115-116.
[2]鄭誠,熊大康,劉倩倩.基于卡方特征選擇和LDA主題模型的中文短文本分類[J].電腦知識與技術,2014(13):280-283.
[3]楊勇,朱影.一種基于MapReduce的粗糙集并行屬性約簡算法[J].重慶郵電大學學報:自然科學版,2015(1):93-100.
[4]鄭濤,王路路.基于PBTM的海量微博主題發(fā)現(xiàn)[J].計算機應用研究,2015(3):134-136.
[5]Lechtenborger J,Vossen G.Multidimensional normal forms for data warehousedesign[J].Information Systems,2003(28):415-434.
[6]Pilevar A H,Sukumar M.GCHL:A grid-clustering algorithm for high-dimensional verylarge spatial data bases[J].Pattern Recognition Letters,2005(7):999-1010.