国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

“大數據殺熟” 的法律規(guī)制
——從個人信息保護到算法規(guī)制

2023-12-10 02:35:48趙德勇張子輝
經濟論壇 2023年10期
關鍵詞:經營者規(guī)制個人信息

趙德勇,張子輝

(河北師范大學法政與公共管理學院,河北 石家莊 050024)

引言

所謂大數據殺熟,是指經營者利用自身掌握的客戶信息優(yōu)勢,在確定服務或者商品的價格過程中針對不同客戶采取不同價格的行為。社會公眾日常使用的攜程、飛豬旅行、滴滴打車、餓了嗎、星巴克、淘票票等平臺企業(yè),均被曝出實施過大數據殺熟行為。這些在諸多知名平臺企業(yè)普遍存在的大數據殺熟行為涉及人民群眾日常生活的各個方面,亟須在法律層面予以規(guī)制。然而通過梳理現行法律體系有關規(guī)定可知, “大數據殺熟” 在《中華人民共和國民法典》合同編、侵權編存在著規(guī)制路徑困境,在《中華人民共和國價格法》《中華人民共和國反壟斷法》中又有用戶權益保護力度不足的問題。因此,本文以《個人信息保護法》和《互聯(lián)網信息信息服務算法推薦管理規(guī)定》為研究對象,從個人信息保護到算法規(guī)制完善 “大數據殺熟” 的規(guī)制路徑方面提出建議,以期解決 “大數據殺熟” 存在的問題,實現保障用戶合法權益的同時促進算法的有序發(fā)展。

一、 “大數據殺熟” 的表現形式和危害

(一) “大數據殺熟” 的表現形式

“大數據殺熟” 的常見表現形式包括 “一人一價” “一次一價” 和 “個性精準推送” 。 “一人一價” 是指同一時間不同用戶登錄同一平臺的同一頁面,同一商品(服務)的價格會根據用戶的瀏覽記錄、收藏記錄、歷史購買記錄、支付能力、選擇偏好等歷史數據為每位用戶定制不同的價格。其中 “VIP 相較普通客戶價更高” “蘋果端用戶相較安卓端用戶價更高” 是 “一人一價” 的主要表現。 “一次一價” 是指同一用戶針對同一品質商品(服務)根據其打開頁面的次數不同、在此頁面停留的時間長短或是使用的次數不同在定價上存在著明顯差距,甚至存在第二次打開頁面比首次打開頁面價格更高的情況。 “個性精準推送” 是指平臺根據搜集的用戶數據信息為用戶劃定商品(服務)的選擇范圍,使用戶只能在給定的高價商品中選擇商品(服務)。

(二) “大數據殺熟” 的危害

1.侵害消費者個人權益,背離民法基本原則

首先, “大數據殺熟” 侵害了用戶作為消費者享有的個人權益。 “一人一價” 使得用戶接收的商品(服務)信息都是平臺基于數據分析而定制的,與用戶作為消費者享有的知悉真情權相沖突; “一次一價” 使得用戶因為搜索或使用的頻次不同而在享受同等商品(服務)時給付的價格不同,這損害了用戶作為消費者當然享有的公平交易權; “個性精準推送” 使得用戶與平臺的黏性愈發(fā)緊密,用戶只能在平臺的劃定范圍內選擇商品(服務),這在一定程度上侵害了用戶作為消費者的自主選擇權。其次,平臺的 “大數據殺熟” 違背了民法的自愿原則、公平原則以及誠實信用原則。平臺利用自身的算法優(yōu)勢,與用戶形成嚴重的信息不對稱。這種信息不對稱影響了用戶在商業(yè)活動中意思表示的真實性,使得用戶無法做出正確判斷從而引發(fā)不公平和低效率[1]。這種濫用算法權力的行為,不僅與民法的自愿原則相背離,而且也不符合民法公平原則的含義。另外,平臺為攫取自身的最大利益,為用戶定制了一個損人利己的商品(服務)價格。這不僅與誠實信用原則中的 “善意” 主觀心理狀態(tài)相違背,而且也不符合該原則 “忠于事實真相,不能欺騙他人、損人利己” 的基本要求[2]。

2.損害平臺內經營者權益,擾亂市場正常秩序

“大數據殺熟” 的發(fā)展同時也催生新型算法價格共謀行為[3]。平臺通過算法排除、限制相關市場經營主體之間的公平競爭,損害平臺內經營者利益,擾亂了市場的正常競爭秩序。2021 年,國家市場監(jiān)督管理總局依法對阿里巴巴實施 “二選一” 的壟斷行為處罰182.28 億元。公布的調查報告顯示,阿里巴巴通過制定平臺規(guī)則、設定算法等方式,決定平臺內經營者和商品(服務)的搜索排名及其平臺展示位置,控制平臺內經營者可獲得的流量,迫使平臺內經營者通過締結多個縱向協(xié)議完成營銷或定價,形成價格共謀,排除、限制市場競爭。 “大數據殺熟” 表面上僅僅損害了用戶的合法權益,實則也侵害了經營者們的經營自主權和合法利益,危害了正常的互聯(lián)網商品(服務)競爭秩序。

3.加劇消費者剩余與社會整體福利之間的沖突

“大數據殺熟” 已經 “路人皆知” ,如果 “熟客” 長此以往地被 “宰殺” ,是否會對殺熟平臺產生厭煩心理甚至棄用殺熟平臺呢?答案是肯定的。有調查研究顯示, “大數據殺熟” 對顧客信任、感知價值和顧客忠誠度存在顯著的負面影響,導致老顧客大量流失,造成平臺負面口碑影響[4]。 “大數據殺熟” 會剝奪用戶作為消費者在統(tǒng)一定價下可享受的消費者剩余,如果不對大數據殺熟進行遏制,大批的老顧客會對殺熟平臺喪失信任,導致非理性拒絕交易或者提起訴訟。當經營者所仰賴的算法程序無法妥善處理消費者的不滿情緒時,最終付出的成本可能遠遠高于既得利益。 “大數據殺熟” 的后果將是加劇消費者剩余與社會整體福利的沖突,激化社會矛盾[5]。

二、 “大數據殺熟” 的背后本質——從個人信息數據過度收集到濫用算法

(一) “大數據殺熟” 定性之爭

“大數據殺熟” 的定性一直存在爭議,學界對 “大數據殺熟” 定性的主流觀點有兩個:一部分學者秉持價格欺詐說,另一部分學者堅持價格歧視說。

1.價格欺詐說

根據國家發(fā)改委《禁止價格欺詐行為的規(guī)定》第三條,價格欺詐行為是指經營者利用虛假的或者使人誤解的標價形式或者價格手段,欺騙、誘導消費者或者其他經營者與其進行交易的行為。該觀點認為, “大數據殺熟” 是平臺在對用戶收集數據并經分析整合后產生了 “千人千價” 的個性化定價,背離了用戶作為消費者對于 “明碼標價” 的常識性認知,平臺有告知義務卻故意隱瞞,致使用戶陷入錯誤認知而作出意思表示,構成消極價格欺詐[6]。但是,有學者認為價格欺詐說不能成立:一方面,用戶在購買商品時是基于質量和價格等各類因素的綜合考量,大數據殺熟不構成被騙的表意錯誤,換句話說, “用戶才是自身利益的最佳裁判” ;另一方面,區(qū)別定價是用戶數據在電腦算法中分析、識別、分組、營銷自動產生的結果,平臺未告知用戶其他售價的行為既不是虛構事實,也談不上隱瞞真實情況[7]。

2.價格歧視說

有學者從經濟學視角出發(fā),將 “大數據殺熟” 定性為價格歧視。該觀點認為 “大數據殺熟” 是平臺利用算法與大數據,突破場景限制,將之前為完成消費服務而收集的消費者個人數據信息,用于對消費者精準 “畫像” 并據此攫取 “價格剩余” ,最終實現 “千人千價” ,將經濟學理論變?yōu)楝F實[8]。價格歧視是一種產品營銷中合理的定價方式,它根據消費者需求的不同推出不同的商品或者服務,以滿足消費者個性化的需求彈性。在電商大行其道之前,現實生活中的價格歧視也比比皆是,比如購買衣服時,根據顧客的砍價能力不同,老板給顧客的最后定價也不同。因此,價格歧視是一個中性詞匯,想要規(guī)制 “大數據殺熟” 將其定義為價格歧視存在不妥。

綜上, “大數據殺熟” 的定性問題不僅存在較大爭議,而且根據 “大數據殺熟” 的表象進行的法律定性難以真正規(guī)制 “大數據殺熟” 。想要真正遏制 “大數據殺熟” ,需要進一步從其行為邏輯層面分析實質。

(二) “大數據殺熟” 的實質是平臺過度收集個人信息數據和濫用算法

許多學者研究 “大數據殺熟” 的實現路徑,得出的結論雖然各有不同,但是,可以發(fā)現,實現 “大數據殺熟” 離不開 “個人信息數據收集—形成用戶個人數字畫像—算法區(qū)別定價” 的根本邏輯。平臺經營者先利用用戶向其提供的個人數據信息,挖掘數據價值,再利用算法整合數據,實現從 “數據價值” 向 “市場價值” 的跨越。在互聯(lián)網技術飛速發(fā)展的今天,利用大數據、算法并沒有錯。 “大數據殺熟” 的錯誤本質在于平臺的經營者過度收集個人信息數據和濫用算法。

1.過度收集個人信息數據

在現實的交易場景中,賣家想要達成交易并完成送貨上門等服務需求,只需要清楚用戶的姓名、地址、聯(lián)系方式和支付方式等基本信息。而 “大數據殺熟” 場景中,平臺在收集基本數據的情況下還會大規(guī)模地收集其他非必要個人信息,主要有性別、年齡、愛好興趣、職業(yè)、通訊錄、設備信息等等。用戶往往會圖一時方便上傳個人信息,對于沒有上傳個人信息的用戶,殺熟平臺也會手段多樣地達成目的。其中,最簡單粗暴的方法是如果不提供相應信息,賣家會限制或禁止用戶對其平臺的使用;另一種較為隱蔽的方法是不同平臺之間通過數據交換或數據交易分享數據信息,或者以折扣、免費服務或獲獎機會換取用戶的個人信息。用戶在手段多樣的平臺面前仿佛 “待宰的羔羊” ,難以用正當合法簡便的方式維護自己的個人信息數據,最終淪為被 “殺熟” 的對象。

2.濫用算法

平臺在獲得足夠的個人信息之后,憑借算法的權力優(yōu)勢和不透明性,通過濫用算法實現 “大數據殺熟” 。算法在網絡世界中對用戶而言是 “絕對權力” 的存在。第一,用戶必須按照算法的邏輯和步驟才能進入算法構成的網絡世界;第二,算法可以通過設置獎勵和懲罰影響用戶的判斷和行為;最后,在算法形成的網絡世界里,根據用戶和算法的互動形成 “信息繭房” ,實現算法對用戶的一種相對掌控。另外,算法還具有不透明性,理解算法需要超高的專業(yè)水準。美國學者尼沃·埃爾金科倫等提出了著名的算法黑箱理論:算法在很大程度上就是一個黑箱子,即不透明的輸入和輸出系統(tǒng),普通人無從知曉輸入—輸出之間的相互作用是通過怎樣的結構得以發(fā)生的,也不知道算法決策依據的具體數據指征和遵循的決策準則是什么[9]。算法設計者在構建算法時,通常使用計算機語言,用戶一般難以理解。算法運行時,用戶不僅不知道算法運行輸入的個人信息數據是什么,也難以理解算法的運行邏輯。用戶在算法權力和算法不透明的情況下,既被算法所控制、影響,又難以發(fā)現算法存在的問題,使得用戶作為消費者很難利用市場反饋機制反制平臺,最終被輕易 “殺熟” 。

另外,由于 “大數據殺熟” 應用在手機端、電腦端,往往比較私密,用戶作為消費者接受商品(服務)時一般處在相對獨立狀態(tài),很難發(fā)現自己 “被殺熟” 。殺熟平臺背后的經營者正是看到了算法在網絡世界中的強大優(yōu)勢,才會濫用算法技術,通過 “殺熟” 手段,攫取自身利益的最大化。

三、從個人信息保護和算法規(guī)制兩個角度完善 “大數據殺熟” 法律規(guī)制

伴隨《民法典》的實施,我國已經初步構建起以《民法典》為引領,其他法律、部門規(guī)章和地方性法規(guī)為組成部分的體系化法律規(guī)制路徑。不僅相繼出臺(修改)了《電子商務法》《個人信息保護法》和《互聯(lián)網信息信息服務算法推薦管理規(guī)定》,還對重點領域進行了規(guī)定,比如針對在線旅游App,出臺了《在線旅游經營服務管理暫行規(guī)定》。還有部分省份制定了相關的地方性法規(guī),比如2023年1月1日施行的《四川省數據條例》直指 “大數據殺熟” 問題。隨著相關法律法規(guī)的確立,網絡平臺的 “殺熟” 之風得到了明顯遏制。但是,總體而言,在調整和收集個人信息的事前階段、處理個人信息的算法決策階段以及事后階段等過程中,仍然存在規(guī)制不力的問題。有必要在厘清 “大數據殺熟” 本質的基礎上,進一步完善相應制度。通過上文可知, “大數據殺熟” 的實質在于平臺過度收集個人信息數據和濫用算法,因此,本文將從這兩個角度完善 “大數據殺熟” 的法律規(guī)制。

(一)收集個人信息的事前階段:落實個人信息保護中的知情同意規(guī)則

《個人信息保護法》明確了知情同意規(guī)則在個人信息保護中的核心地位。平臺經營者應以個人對信息處理的充分知情和同意作為收集、處理個人信息的前提。平臺應該使用顯著方式和簡明語言確保用戶知道收集了哪些個人信息,誰在處理這些信息、處理信息的方式、可能造成的影響等,用戶應該在充分知情的情況下自由地行使同意權。知情同意規(guī)則是在平臺收集個人信息的事前階段規(guī)制 “大數據殺熟” 最有力的方法。然而,法律規(guī)定與現實情況存在偏差。一方面,平臺或是通過冗長、模糊、晦澀難懂的格式條款消耗用戶耐心使得用戶默示同意,或是綁定同意選項迫使用戶同意,或是提供優(yōu)惠產品、服務等方式獲取用戶的同意。另一方面,用戶對于知情同意規(guī)則了解不足,認為沒有必要了解隱私政策、用戶協(xié)議的詳細內容,往往直接 “同意” 了事??傊?,知情同意規(guī)則脫離了立法者保護用戶個人信息的本意,演變成為平臺肆意收集用戶個人信息,逃脫法律制裁的手段。

為進一步保護用戶個人信息不被過度收集,應加強落實知情同意規(guī)則。第一,平臺的告知義務應當履行到位。就知情與自愿的關系而言,自愿必須建立在知情的基礎上,個人只有充分了解其個人信息的收集、使用和轉讓情況,做出的同意才能稱之為自愿同意[10]。網信辦等相關部門可以將平臺告知義務的履行情況列為算法安全評估的重要事項,倒推平臺落實知情同意規(guī)則。平臺的告知內容應當明確,告知形式應當簡潔易懂。無論是否涉及隱私信息,只要屬于對個人信息的收集都應該告知用戶。針對晦澀難懂、紛繁復雜的用戶協(xié)議和隱私政策應當采取圖文并茂、簡潔明了、方便易懂的形式向用戶展示,確保用戶理解明白用戶協(xié)議和隱私政策的內容。第二,提高用戶對于知情同意規(guī)則的了解。用戶應當明白自身享有的同意權、知情權,加強對自身個人信息的保護意識。平臺可以通過不點開協(xié)議就無法進入頁面、重點條款加粗加大、語言簡短明確等多種形式讓用戶仔細閱讀相關條款,通過協(xié)議中設置個性化選項等方式確保用戶同意權的準確自由。第三,針對個別平臺《服務協(xié)議》《隱私政策》存在不合理條款的情況,一方面,網信辦等部門可以對《服務協(xié)議》《隱私政策》中涉及個人信息收集的條款進行標準化規(guī)定,出具相應的模板,實現同一問題同一處理;另一方面,網信辦等部門應加大審查力度,完善個人信息保護投訴和舉報工作機制,對于反復出現不合理條款的平臺加大處罰力度。

(二)處理個人信息的算法決策階段

1.加強算法管理中的個性化推薦設置

《個人信息保護法》和《互聯(lián)網信息信息服務算法推薦管理規(guī)定》規(guī)定,經營者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。通過設置個性化推薦選項,將是否受到算法影響的權利從平臺經營者手中轉移到用戶手中,相對限制了算法權力對用戶選擇的過度干預,保障用戶不被算法控制和影響。然而,用戶是否關閉算法推薦服務的真實意思很難得到表達。一是因為大多數用戶對于關閉個性化推薦的自主選擇權并不知曉,二是因為平臺將關閉個性化推薦設置在隱秘地方,甚至個別平臺App(如拼多多)存在不設置關閉個性化推薦選項的情形。用戶想要關閉算法推薦服務,首先要對關閉個性化推薦選項有清晰的了解。其次需要進行步驟查詢,操作多個步驟才能予以關閉。為保障用戶對個性化推薦設置的自由選擇權,應加強算法管理中的個性化推薦設置。消保委、網信辦等部門應加強對個性化推薦設置的監(jiān)督,提高用戶對個性化推薦設置的認識,促使平臺簡化個性化推薦設置流程。

2.明確算法處理時使用的個人信息

根據《互聯(lián)網信息信息服務算法推薦管理規(guī)定》,算法推薦服務的情況應當以顯著方式告知用戶,以增強算法的透明度和可解釋性。但是,平臺將算法推薦服務情況告知用戶存在現實困難。以數據畫像技術為例,該技術是通過收集數據主體信息,包括工作績效、經濟狀態(tài)、健康狀況、個人偏好等來預測數據主體的行為并做出決定。平臺背后的經營者作為算法推薦服務提供者,可能自身也不清楚算法的具體運行情況,更何況讓其向用戶解釋。用戶作為非專業(yè)計算機人士,理解算法決策運行邏輯也存在困難。因此,為增強算法透明度和可解釋性,應將重點放在披露算法處理時使用的個人信息和數據上。對于平臺而言,公示算法處理時使用的個人信息和數據既保證了算法在平臺中的商業(yè)價值,也不會給平臺造成解釋不清的困難。對于用戶而言,可以了解自己哪些個人信息被算法處理。明確算法處理時使用的個人信息不僅有利于通過糾正錯誤的個人信息實現錯誤算法結果的改正,也有利于掌握平臺收集的非必要個人信息,進而更好地維護自身的合法權益。

3. “大數據殺熟” 的事后階段

現有法律大多從事前監(jiān)管出發(fā)規(guī)制平臺濫用算法,忽略了 “大數據殺熟” 的事后規(guī)制,導致用戶被 “殺熟” 后救濟手段較少。在 “大數據殺熟” 相關案件中,因為平臺掌握技術優(yōu)勢,可以倚仗數據緩存、時間變化來掩飾 “殺熟” 行為,所以處于弱勢地位的用戶難以獲取證據,存在舉證難、維權成本高的問題。

完善 “大數據殺熟” 法律規(guī)制,需加強事后規(guī)制手段。第一,應通過舉證責任倒置來平衡算法及其經營者在互聯(lián)網市場交易中的優(yōu)勢地位?!睹穹ǖ洹芬?guī)定的舉證責任倒置情形是為了平衡法律關系雙方的利益,保證弱勢一方在法律關系中的權利。在 “大數據殺熟” 場景中,平臺后的經營者利用算法的絕對權力、不透明性和 “殺熟” 的隱蔽性,使得用戶明顯處于弱勢地位,并且由于算法、數據等均由經營者掌控,用戶舉證十分困難,單單憑借 “誰主張,誰舉證” 的規(guī)則難以通過司法路徑有效維護自身合法權益。在 “大數據殺熟” 事后追責模式中納入舉證責任倒置原則不僅有利于算法權力規(guī)制而且符合民法的價值追求。第二,明確法律規(guī)定的 “重大影響” 和 “不合理” 。《個人信息保護法》第24 條規(guī)定,通過自動化決策方式做出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策方式做出決定。其中,對個人權益有 “重大影響” 的判斷標準存在認定不清嫌疑。無獨有偶,在《互聯(lián)網信息信息服務算法推薦管理規(guī)定》第21 條中,算法推薦服務者不得根據消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實施不合理的差別待遇等違法行為。對于 “不合理” 差別待遇同樣存在認定界限模糊的問題。認定不清導致用戶對于達到 “重大影響” “不合理” 的舉證存在現實困難,難以根據法律相關規(guī)定實現 “大數據殺熟” 的合理維權。因此,相關立法部門應該對于《個人信息保護法》第24 條和《互聯(lián)網信息信息服務算法推薦管理規(guī)定》第21條的 “重大影響” “不合理差別待遇” 進行明確規(guī)定。首先,不論是 “重大影響” 或是 “不合理” 都應從一般理性人視角分析算法結果是否對用戶的原有利益造成嚴重影響,而不應從用戶的主觀視角進行判斷。其次,在 “大數據殺熟” 場景中,一定時間段內平臺對于用戶頻繁 “殺熟” 造成用戶的個性化推薦、商品(服務)價格與其他用戶明顯不同,屬于法條規(guī)定的 “重大影響” “不合理差別待遇” 。相對的,如果算法只是根據市場波動導致商品(服務)價格有輕微波動的,不屬于 “重大影響” 或者 “不合理差別待遇” 。第三, “大數據殺熟” 案件可以納入公益訴訟。一方面,平臺借助不斷刷新的搜集和推送技術使大數據殺熟波及范圍更廣、隱蔽時間更長,形成輻射性和散發(fā)性危害,侵犯人格權益規(guī)模呈幾何級倍增[11]。另一方面,大數據殺熟的復雜科技性對于原告的舉證能力有很強的要求,普通用戶往往難以具備訴訟成功的能力。將 “大數據殺熟” 案件納入公益訴訟可以平衡平臺的優(yōu)勢地位,充分確保用戶在被 “大數據殺熟” 后享有合法維權的途徑。

總之,對于用戶被 “大數據殺熟” 后存在的舉證難、維權成本高問題,應當通過舉證責任倒置、明確法律規(guī)定的 “重大影響” 和 “不合理” 以及納入公益訴訟來完善 “大數據殺熟” 的事后規(guī)制。

四、結論

“大數據殺熟” 已經廣泛被各大平臺應用, “一人一價” “一次一價” 和 “個性精準推送” 成為平臺利用算法損害用戶和平臺內經營者權益、擾亂市場秩序的常見形式。從 “大數據殺熟” 常見形式分析 “大數據殺熟” 的性質,再到分析 “大數據殺熟” 的本質,可以得出結論: “大數據殺熟” 的錯誤本質在于過度收集個人信息數據和濫用算法。因此,本文從個人信息保護和算法規(guī)制兩個角度完善 “大數據殺熟” 法律規(guī)制,在收集個人信息的事前階段進一步落實個人信息保護中的知情同意規(guī)則,在處理個人信息的算法決策階段加強個性化推薦設置和明確算法處理時使用的個人信息。在用戶被大數據殺熟的事后階段,通過舉證責任倒置、明確 “重大影響” 和 “不合理” 的含義以及納入公益訴訟三種方式進行完善。

猜你喜歡
經營者規(guī)制個人信息
明清珠江三角洲基塘區(qū)的田場與經營者
廣州文博(2023年0期)2023-12-21 07:24:30
如何保護勞動者的個人信息?
工會博覽(2022年16期)2022-07-16 05:53:54
個人信息保護進入“法時代”
《經營者》征稿啟事
經營者(2021年12期)2021-07-26 07:20:34
主動退市規(guī)制的德國經驗與啟示
南大法學(2021年4期)2021-03-23 07:56:10
警惕個人信息泄露
綠色中國(2019年14期)2019-11-26 07:11:44
保護與規(guī)制:關于文學的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
論《反不正當競爭法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
做一名聰明的集團醫(yī)院經營者
內容規(guī)制
現代出版(2014年6期)2014-03-20 13:37:25
顺平县| 连州市| 曲周县| 大宁县| 墨竹工卡县| 拉萨市| 宜昌市| 南涧| 加查县| 潍坊市| 玉林市| 台南县| 平和县| 革吉县| 柳林县| 德清县| 固始县| 晋州市| 海城市| 即墨市| 郎溪县| 葫芦岛市| 安图县| 安平县| 榆中县| 新田县| 常熟市| 伊通| 安顺市| 仲巴县| 温州市| 蓝田县| 醴陵市| 丰镇市| 田阳县| 永昌县| 大港区| 平湖市| 张家港市| 肇源县| 溧阳市|