国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

LDA-CF:一種混合協(xié)同過濾方法

2014-04-14 07:50廉濤王帥強崔超然
中文信息學(xué)報 2014年2期
關(guān)鍵詞:文檔物品向量

廉濤,馬 軍,王帥強,崔超然

(1.山東大學(xué),山東濟南250101;2.山東財經(jīng)大學(xué),山東濟南250014)

1 引言

在這個信息爆炸的時代,信息過載已成為人們?nèi)粘I钪忻媾R的主要問題之一,于是近年來個性化推薦系統(tǒng)得到了學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注。目前大多數(shù)推薦系統(tǒng)都利用協(xié)同過濾(Collaborative Filtering),從歷史數(shù)據(jù)(如以前用戶對物品的評分)中發(fā)現(xiàn)用戶和物品的聯(lián)系,預(yù)測用戶對未知物品的評分,從而進行個性化推薦[1]。

協(xié)同過濾主要分為兩大類:

(1)鄰域方法(Neighborhood Method)。首先使用評分矩陣計算用戶或者物品相似度,尋找目標(biāo)用戶的鄰居用戶或者未知物品的鄰居物品;然后根據(jù)鄰居用戶或者鄰居物品的評分,預(yù)測目標(biāo)用戶對未知物品的評分[2-3]。

(2)潛在因素模型(Latent Factor Model)。首先從評分矩陣中發(fā)現(xiàn)用戶和物品潛在因素向量,用戶潛在因素向量表示用戶的興趣,物品潛在因素向量表示物品的特點;然后根據(jù)目標(biāo)用戶和未知物品對應(yīng)的潛在因素向量預(yù)測未知評分。該類方法常用的技術(shù)是矩陣分解[4-5]。

實際應(yīng)用中,由于大多數(shù)用戶只對少數(shù)物品評分,所以即便兩名用戶興趣相似,他們共同評分的物品也可能很少。數(shù)據(jù)的稀疏性對以上兩類方法提出了嚴(yán)峻挑戰(zhàn)[6]?;旌夏P湍軌蛴行У鼐徑鈹?shù)據(jù)稀疏問題[7]。LDA主題模型是一種概率混合模型[8],通過對詞匯間接地進行模糊聚類,發(fā)現(xiàn)大型語料庫中的潛在主題,把文檔從高維詞匯空間映射到低維主題空間,進而可以在低維主題空間中計算文檔相似度。如果我們換個視角看待評分矩陣,將物品看作詞匯,用戶對物品的評分看作詞頻,用戶所有的評分就可以轉(zhuǎn)換成一篇偽文檔。假如物品集合共有5種物品{i1,i2,i3,i4,i5},某名用戶對物品的評分向量為(0,4,1,0,3),則對應(yīng)的偽文檔的內(nèi)容就是“i2i2i2i2i3i5i5i5”。這樣我們就可以使用LDA對物品間接地進行模糊聚類,從評分矩陣中發(fā)現(xiàn)潛在主題,通過潛在主題把用戶和物品聯(lián)系起來,將用戶和物品表示為潛在因素向量,進而在低維潛在因素空間計算用戶和物品相似度。

本文提出一種混合協(xié)同過濾方法LDA-CF,該方法結(jié)合了潛在因素模型和鄰域方法。我們首先將評分矩陣轉(zhuǎn)換為偽文檔集合,使用LDA發(fā)現(xiàn)潛在主題,將用戶和物品表示成潛在因素向量;然后在低維潛在因素空間,計算用戶和物品相似度;最后尋找目標(biāo)用戶的鄰居用戶或者未知物品的鄰居物品,根據(jù)鄰居用戶或者鄰居物品的評分預(yù)測未知評分。在MovieLens 100k數(shù)據(jù)集上的實驗表明:在評分預(yù)測任務(wù)中,LDA-CF取得的MAE性能指標(biāo)優(yōu)于傳統(tǒng)的鄰域方法。因此,LDA可以有效地從評分矩陣中發(fā)現(xiàn)對計算相似度十分有用的用戶和物品低維特征表示,在一定程度上緩解了數(shù)據(jù)稀疏問題。

本文第2節(jié)介紹協(xié)同過濾和混合模型在推薦系統(tǒng)中的相關(guān)工作;第3節(jié)講述本文方法LDA-CF的細節(jié);第4節(jié)展示實驗結(jié)果與分析;第5節(jié)總結(jié)與展望。

2 相關(guān)工作

2.1 協(xié)同過濾

協(xié)同過濾是一種廣泛使用的推薦方法,主要有兩類:鄰域方法和潛在因素模型。

鄰域方法主要包括基于物品的協(xié)同過濾(Item-Based CF)和基于用戶的協(xié)同過濾(User-Based CF)。基于物品的協(xié)同過濾[2]主要分以下三步:首先根據(jù)評分矩陣計算物品之間的相似度;然后在目標(biāo)用戶已經(jīng)評分的物品中選擇和未知物品最相似的K種物品作為鄰居物品;最后根據(jù)目標(biāo)用戶對鄰居物品的評分預(yù)測他對未知物品的評分?;谟脩舻膮f(xié)同過濾[3]基本類似,主要是尋找和目標(biāo)用戶興趣相似的鄰居用戶。該類方法最大的問題是,在高維空間中基于稀疏數(shù)據(jù)計算的相似度并不準(zhǔn)確。

潛在因素模型一般通過最小化均方誤差損失函數(shù),尋找原始評分矩陣的一個最佳近似低秩矩陣R^=UTV,其中U和V的列向量分別對應(yīng)用戶和物品潛在因素向量,二者的內(nèi)積表示預(yù)測評分。由于評分矩陣的稀疏性,早期的工作[9]先填充缺失值,再使用奇異值分解得到用戶和物品潛在因素向量。這樣不僅會增加計算量,而且會引入噪聲。近年來的工作在目標(biāo)函數(shù)中加入正則化項,只使用已知評分進行概率矩陣分解[5]。此外,Koren把潛在因素模型和鄰域方法集成到一個目標(biāo)函數(shù)中[10],將二者結(jié)合起來。

2.2 混合模型

Hofmann提出的隱語義模型(Latent factor Model)通過隱類(Latent Class)將用戶和物品聯(lián)系起來[11]。認為用戶并不是直接對物品產(chǎn)生興趣,而是物品屬于不同的類別,用戶對幾個類別有興趣。這個模型可以從用戶行為數(shù)據(jù)中學(xué)習(xí)出這些類別,以及用戶對類別的興趣。他也曾將pLSA(probabilistic Latent Semantic Analysis)擴展到協(xié)同過濾推薦系統(tǒng)中[12]。

Marlin則提出了URP(User Rating Profile)模型[13],將LDA中的詞匯變量替換為評分變量,對用戶的評分行為進行建模。URP試圖發(fā)現(xiàn)評分矩陣中潛在的用戶態(tài)度(User Attitude),每種用戶態(tài)度對應(yīng)一種評分模式,即評分{1,2,3,4,5}的多項式分布,而非詞匯的多項式分布。每名用戶擁有一種態(tài)度多項式分布。然后根據(jù)用戶-態(tài)度多項式分布和態(tài)度-評分多項式分布,預(yù)測用戶對物品的評分。

LDA主題模型是一種概率混合模型,通過潛在主題將文檔和詞匯聯(lián)系起來。假設(shè)文檔集合中有Z個潛在主題,每個主題被表示為一種詞匯多項式分布φz,每篇文檔被看作多個主題的混合,對應(yīng)一種主題多項式分布θd。一方面LDA分別實現(xiàn)了文檔和詞匯的模糊聚類,每個詞匯可能屬于多個主題,每篇文檔也可能包含多個主題。另一方面LDA可以被看作一種類似于pLSA的降維方法[14],將文檔從高維詞匯空間映射到低維主題空間。此外Jin系統(tǒng)地研究了混合模型(Mixture Model)在協(xié)同過濾中的應(yīng)用[7]。所以本文試圖將LDA應(yīng)用到協(xié)同過濾中,進行個性化推薦。

3 本文方法LDA-CF

假設(shè)用戶集合U有m名用戶,物品集合I有n種物品,評分矩陣R={ru,i}m×n,其中ru,i∈{1,2,3,4,5}表示用戶u對物品i的評分(評分范圍依具體應(yīng)用而定)。如果用戶u未對物品i評分,則用0表示。協(xié)同過濾的主要任務(wù)就是預(yù)測用戶對未知物品的評分。

本文提出一種結(jié)合潛在因素模型和鄰域方法的混合協(xié)同過濾方法LDA-CF,來完成推薦系統(tǒng)中的評分預(yù)測任務(wù)。一方面類似于潛在因素模型,本文使用LDA從評分矩陣中發(fā)現(xiàn)潛在主題,通過潛在主題將用戶和物品聯(lián)系起來,用潛在因素向量描述用戶的興趣和物品的特點;另一方面類似于鄰域方法,本文在低維潛在因素空間,計算用戶和物品相似度,根據(jù)鄰居用戶或鄰居物品的評分預(yù)測未知評分。此外,混合模型可以有效地緩解數(shù)據(jù)稀疏問題[7]。在這種混合模型中,物品可能不同程度地屬于多個主題,用戶也可能不同程度地對多個主題感興趣。即便兩名用戶共同評分的物品很少,或者同時對兩種物品評分的用戶很少,也可以基于潛在因素向量計算用戶和物品相似度。

LDA-CF主要分以下幾步:

1)發(fā)現(xiàn)潛在因素向量:將評分矩陣轉(zhuǎn)換成偽文檔集合,使用LDA發(fā)現(xiàn)潛在主題,將用戶和物品表示成潛在因素向量;

2)計算相似度:在低維潛在因素空間,基于KL散度(Kullback-Leibler Divergence)或JS散度(Jensen-Shannon Divergence),計算用戶或者物品之間的相似度;

3)預(yù)測評分:尋找目標(biāo)用戶的鄰居用戶或者未知物品的鄰居物品,根據(jù)鄰居用戶或鄰居物品的評分預(yù)測目標(biāo)用戶對未知物品的評分。

3.1 發(fā)現(xiàn)潛在因素向量

如果從LDA主題模型的視角看待評分矩陣R,每種物品i對應(yīng)一個單詞w,每名用戶u對應(yīng)一篇由物品組成的偽文檔du,用戶u對物品i的評分ru,i等于物品i在偽文檔du中出現(xiàn)的次數(shù),那么就可以將評分矩陣轉(zhuǎn)換成偽文檔集合。假設(shè)物品集合I共有5種物品{i1,i2,i3,i4,i5},用戶u對物品集合的評分向量為(0,4,1,0,3),則偽文檔du的內(nèi)容就是“i2i2i2i2i3i5i5i5”。這樣我們就可以只使用已知評分,忽略評分矩陣中大量的缺失值。

然后我們使用LDA發(fā)現(xiàn)偽文檔集合中的潛在主題,通過潛在主題將用戶和物品聯(lián)系起來。每個主題z對應(yīng)物品集合I上的一種多項式分布φz,每名用戶u擁有一種潛在主題上的多項式分布θu。用戶對物品的評分行為可以這樣描述:用戶u首先根據(jù)自己的興趣θu選擇一個主題z,然后根據(jù)該主題所對應(yīng)的物品多項式分布φz選擇一種物品,不斷重復(fù)此過程,用戶u選擇物品i的次數(shù)越多,對它的評分ru,i就越大。圖模型表示如圖1,對應(yīng)的生成過程如下:

1)對于用戶集合U中的每名用戶u,采樣θu~Dirichlet(α);

2)對于用戶u對應(yīng)的偽文檔du中每個位置的物品iu,n:

a)采樣一個主題標(biāo)簽zu,n~Multinomial(θu);

b)采樣一種物品iu,n~Multinomial(φzu,n)。

圖1 LDA圖模型表示

如果在偽文檔集合上訓(xùn)練一個包含Z個主題的LDA模型,那么用戶u對應(yīng)的潛在因素向量就可以用偽文檔du在Z個主題上的多項式分布θu=來表示,其中≤1。物品i對應(yīng)的潛在因素向量也可以由它在Z個主題中出現(xiàn)的概率組成的向量ηi=(φ1,i,φ2,i,…,φZ,i)來表示。雖然每個主題z對應(yīng)的物品多項式分布φz中,各種物品出現(xiàn)的概率之和為1。但是每種物品在各個主題中出現(xiàn)的概率之和并不為它出現(xiàn)在各個主題中的概率互不影響,可以都很高或很低。因此我們對物品i對應(yīng)的潛在因素向量ηi進行線性規(guī)范化,ηi,z=

此模型可以為同一種物品在一篇偽文檔中的多次出現(xiàn)選擇不同的主題標(biāo)簽。因此一種物品可以屬于多個主題,每名用戶也可能對多個主題感興趣。

3.2 計算相似度

協(xié)同過濾中普遍使用余弦相似度或皮爾遜相關(guān)系數(shù)(Pearson Correlation Coefficient)度量用戶和物品相似度。由于兩名用戶共同評分的物品很少,同時對兩種物品評分的用戶也很少,在高維空間中基于存在共同評分的少數(shù)幾個維度計算相似度并不準(zhǔn)確。即便兩名用戶各自評分的物品并不少,如果他們共同評分的物品很少,他們之間的相似度也接近于0。計算物品相似度也存在類似問題,即維度災(zāi)難(Curse of Dimensionality)。

在低維潛在因素空間中計算相似度可以有效地緩解數(shù)據(jù)稀疏問題。如果兩名用戶各自評分的物品并不少,他們對應(yīng)的潛在因素向量就能夠準(zhǔn)確地描述各自的興趣。即便沒有共同評分的物品,如果各自評分的某些物品屬于相同的主題,那么他們的興趣也會相似,根據(jù)潛在因素向量計算的相似度也會比較高。如果某名用戶評分的物品特別少,那么他所對應(yīng)的潛在因素向量在各個主題上的分布就比較均勻,但也可以計算和其他用戶的相似度,這樣在一定程度上解決了“冷啟動”問題。同樣的道理也適用于物品相似度的計算。

KL散度和JS散度用來度量兩個概率分布之間的距離,我們利用下式計算用戶和物品相似度,其中P和Q表示兩個概率分布。將用戶潛在因素向量θu和θv代入,就可以計算兩名用戶的相似度,將物品潛在因素向量ηi和ηj代入,就可以計算兩種物品的相似度。

3.3 預(yù)測評分

在低維潛在因素空間計算完用戶和物品相似度之后,我們采用鄰域方法預(yù)測未知評分:尋找目標(biāo)用戶的鄰居用戶或者未知物品的鄰居物品,根據(jù)鄰居用戶或者鄰居物品的評分,預(yù)測目標(biāo)用戶對未知物品的評分。

在鄰域方法中,評分預(yù)測公式主要有兩種:加權(quán)平均評分(Weighted Average Rating)和加權(quán)平均偏差(Weighted Average Deviation)。加權(quán)平均偏差考慮了用戶或物品的個體差異。

以基于物品的協(xié)同過濾為例,加權(quán)平均評分如下式:

以基于用戶的協(xié)同過濾為例,加權(quán)平均偏差如下式:

4 實驗結(jié)果與分析

實驗使用MovieLens 100k電影評分數(shù)據(jù),包括來自943名用戶對1 682部電影的100 000個評分,評分范圍為{1,2,3,4,5}。數(shù)據(jù)稀疏度為1-100 000/(943*1 682)=0.937 0。數(shù)據(jù)集也非常不平衡,某名用戶已評分的物品數(shù)目變化范圍為[20,737],對某種物品已評分的用戶數(shù)目變化范圍為[1, 583]。我們采用5折交叉驗證,每次使用20 000個評分作為測試集,剩余80 000個評分作為訓(xùn)練集,取5次實驗的平均結(jié)果。

我們選擇鄰域方法作為基準(zhǔn)方法,基于原始評分矩陣,根據(jù)余弦相似度和皮爾遜相關(guān)系數(shù)計算用戶和物品相似度,分別簡寫為Rating-CF-Cos和Rating-CF-Pcc。本文方法LDA-CF則基于用戶和物品潛在因素向量,根據(jù)KL散度和JS散度計算用戶和物品相似度,分別簡寫為LDA-CF-KL和LDA-CF-JS。

我們采用平均絕對誤差(MAE)和覆蓋度(Coverage)作為評價指標(biāo)。MAE度量測試集中用戶u對物品i的預(yù)測評分和實際評分ru,i的誤差,MAE值越小,說明預(yù)測越準(zhǔn)確。覆蓋度度量鄰居數(shù)目K對基于鄰居預(yù)測能力的影響,覆蓋度越高,說明能對測試集中更多的用戶-物品對(u,i)預(yù)測評分。

其中Test表示測試集中的全部用戶-物品對(u,i),N<K表示測試集中鄰居用戶或者鄰居物品數(shù)目不足K的用戶-物品對(u,i)的數(shù)目。

4.1 主題數(shù)目的影響

首先我們設(shè)定鄰居數(shù)目K=20,LDA模型參數(shù)α=0.5,β=0.1,觀察隨著主題數(shù)目Z的變化,LDACF基于鄰居用戶和基于鄰居物品采用加權(quán)平均偏差預(yù)測評分時,MAE的變化情況。從圖2中可以看出,主題數(shù)目從10變化到50時,LDA-CF的效果并無太大差異,MAE變化范圍小于0.005,說明LDA-CF對主題數(shù)目并不敏感。這可能是因為相對于傳統(tǒng)文本文檔中詞頻的變化范圍而言,偽文檔中物品出現(xiàn)的次數(shù)差異并不大。

圖2 LDA主題數(shù)目對MAE的影響

4.2 鄰居數(shù)目的影響

然后我們設(shè)定LDA主題數(shù)目Z=20,觀察鄰居數(shù)目K對覆蓋度和MAE的影響。

由于我們不是先設(shè)定相似度閾值再選擇鄰居,而是把相似度從大到小排序選擇前K個作為鄰居,所以相似度的計算方式和具體數(shù)值對鄰居數(shù)目沒有影響。覆蓋度僅受鄰居數(shù)目的影響。從圖3中可以看出,基于鄰居用戶和基于鄰居物品時,覆蓋度都隨鄰居數(shù)目的增大而顯著下降,并且基于鄰居物品的覆蓋度略高于基于鄰居用戶的覆蓋度。

圖4和圖5展示了Rating-CF-Pcc和LDA-CFJS分別使用加權(quán)平均評分和加權(quán)平均偏差預(yù)測評分時,基于鄰居用戶和鄰居物品的MAE值隨鄰居數(shù)目K的變化情況。圖4中各種方法的變化趨勢略有不同,而圖5中各種方法的變化趨勢基本一致。當(dāng)K=20時,MAE值最小;當(dāng)K<20時,由于鄰居太少,預(yù)測效果比較差;當(dāng)K>20時,隨著鄰居數(shù)目的增多,引入了越來越多相似度較低的用戶或者物品,預(yù)測效果也越來越差。不過圖4和圖5都表明:無論基于鄰居用戶或鄰居物品,LDA-CF-JS始終比Rating-CF-Pcc效果要好。

圖3 鄰居數(shù)目對覆蓋度的影響

圖4 加權(quán)平均評分時,鄰居數(shù)目對MAE的影響

圖5 加權(quán)平均偏差時,鄰居數(shù)目對MAE的影響

4.3 本文方法與基準(zhǔn)方法

最后我們設(shè)置主題數(shù)目Z=20,鄰居數(shù)目K=20,在基于鄰居用戶和基于鄰居物品時,分別采用加權(quán)平均評分和加權(quán)平均偏差預(yù)測評分,總共4種實驗配置下,對比本文方法LDA-CF和基準(zhǔn)方法Rating-CF取得的MAE值。

表1 加權(quán)平均評分MAE值

表2 加權(quán)平均偏差MAE值

從表1和表2中我們可以得出以下結(jié)論:

(1)在評分預(yù)測任務(wù)中,除了Rating-CF使用加權(quán)平均評分之外,基于鄰居物品比基于鄰居用戶預(yù)測更準(zhǔn)確。說明推薦目標(biāo)用戶喜歡的物品的相似物品,比推薦目標(biāo)用戶的相似用戶喜歡的物品,效果要好;

(2)無論基于鄰居用戶或鄰居物品,加權(quán)平均偏差的結(jié)果明顯好于加權(quán)平均評分的結(jié)果。說明考慮用戶評分行為的差異和物品受歡迎程度的差異會提高推薦效果;

(3)無論基于鄰居用戶或鄰居物品,無論采用加權(quán)平均評分或加權(quán)平均偏差預(yù)測評分,本文方法LDA-CF比基準(zhǔn)方法Rating-CF取得的MAE值都小。說明了雖然同樣是基于鄰居預(yù)測評分,使用LDA發(fā)現(xiàn)的潛在因素向量計算相似度比使用原始評分矩陣計算相似度更準(zhǔn)確,推薦效果更好。

5 總結(jié)與展望

本文提出了一種結(jié)合潛在因素模型和鄰域方法的混合協(xié)同過濾方法LDA-CF。我們從LDA主題模型的視角看待評分矩陣,將物品看作詞匯,用戶看作文檔,用戶對物品的評分看作詞頻,從而將評分矩陣轉(zhuǎn)換成偽文檔集合。首先利用LDA發(fā)現(xiàn)偽文檔集合中的潛在主題,通過潛在主題將用戶和物品聯(lián)系起來,用潛在因素向量描述用戶的興趣和物品的特點;然后使用潛在因素向量計算用戶和物品相似度;最后采用鄰域方法預(yù)測未知評分。在評分預(yù)測任務(wù)中,LDA-CF比直接使用原始評分矩陣的基于鄰居的協(xié)同過濾方法,預(yù)測更加準(zhǔn)確。說明了LDA可以有效地從評分矩陣中發(fā)現(xiàn)對計算相似度十分有用的用戶和物品低維特征表示,在一定程度上緩解了數(shù)據(jù)稀疏問題。

基于本文的初步結(jié)果,未來我們想進一步檢驗本文方法在更大規(guī)模的數(shù)據(jù)集上的效果和效率,研究LDA等概率混合模型能否提高推薦結(jié)果的多樣性,探索考慮時間因素的動態(tài)推薦系統(tǒng)中的關(guān)鍵技術(shù)。

[1] Goldberg D,Nichols D,Oki B M,et al.Using collaborative filtering to weave an information tapestry[J].Commun.ACM,1992,35(12):61-70.

[2] Sarwar B,Karypis G,Konstan J,et al.Item-based collaborative filtering recommendation algorithms[C]//Proceedings of the 10th international conference on World Wide Web,2001,285-295.

[3] Herlocker J L,Konstan J A,Borchers A l,et al.An algorithmic framework for performing collaborative filtering[C]//Proceedings of the 22nd ACM SIGIR,1999,230-237.

[4] Koren Y,Bell R,Volinsky C.Matrix factorization techniques for recommender systems[J].Computer,2009,42(8):30-37.

[5] Salakhutdinov R,Mnih A.Probabilistic matrix factorization[C]//Proceedings of the 20th NIPS,2007.

[6] 周濤.個性化推薦的十大挑戰(zhàn)[J].中國計算機學(xué)會通訊,2012,8(7):48-61.

[7] Jin R,Si L,Zhai C X.A study of mixture models for collaborative filtering[J].Inf.Retr.,2006,9(3):357-382.

[8] Blei D M,Ng A Y,and Jordan M I.Latent dirichlet allocation[J].J.Mach.Learn.Res.,2003,3:993-1022.

[9] Sarwar B M,Karypis G,Konstan J A,et al.Application of dimensionality reduction in recommender system—a case study[C]//Proceedings of WebKDD at the 6th ACM SIGKDD,2000.

[10] Koren Y.Factorization meets the neighborhood:a multifaceted collaborative filtering model[C]//Proceedings of the 14th ACM SIGKDD,2008,426-434.

[11] Hofmann T,Puzicha J.Latent class models for collaborative filtering[C]//Proceedings of the 16th IJCAI,1999,688-693.

[12] Hofmann T.Latent semantic models for collaborative filtering[J].TOIS,2004,22(1):89-115.

[13] Marlin B.Modeling user rating profiles for collabora-tive filtering[C]//Proceedings of the 17th NIPS,2003.

[14] Steyvers M,Griffiths T.Probabilistic topic models[M].In Landauer T,McNamara D S,Dennis S,et al.(Eds.),Handbook of Latent Semantic Analysis.Hillsdale,NJ:Erlbaum.2007.

猜你喜歡
文檔物品向量
稱物品
淺談Matlab與Word文檔的應(yīng)用接口
向量的分解
有人一聲不吭向你扔了個文檔
聚焦“向量與三角”創(chuàng)新題
“雙十一”,你搶到了想要的物品嗎?
誰動了凡·高的物品
Word文檔 高效分合有高招
向量垂直在解析幾何中的應(yīng)用
向量五種“變身” 玩轉(zhuǎn)圓錐曲線
云浮市| 棋牌| 衡水市| 阜南县| 于都县| 安国市| 墨江| 云龙县| 万盛区| 岱山县| 碌曲县| 宜都市| 沙湾县| 利辛县| 陇西县| 鄯善县| 海盐县| 开阳县| 两当县| 甘肃省| 阿勒泰市| 颍上县| 阜新市| 五常市| 罗甸县| 武宣县| 肇州县| 遂川县| 三门峡市| 扬州市| 大名县| 漾濞| 虞城县| 康保县| 枝江市| 广南县| 清水县| 原阳县| 图片| 北票市| 桐庐县|