国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

狂歡下的隱憂:聚焦大數(shù)據(jù)時代的算法傳播風險

2022-11-19 01:42王燕星
關(guān)鍵詞:個人信息算法用戶

王燕星

(閩江學院新聞傳播學院,福建福州,350108)

WilliamFrawley等人在1992年首次提出“數(shù)據(jù)挖掘”的概念,如今數(shù)據(jù)挖掘已經(jīng)成為實現(xiàn)個人信息化轉(zhuǎn)向的技術(shù)保障。數(shù)據(jù)挖掘是指利用多學科分析工具,從海量、不完全、模糊且隨機的數(shù)據(jù)中提取未知、隱藏但具有潛在應用價值的數(shù)據(jù)信息、數(shù)據(jù)關(guān)系和數(shù)據(jù)模式,并用以進行信息管理、知識優(yōu)化、決策支持的數(shù)據(jù)信息提取、數(shù)據(jù)模型轉(zhuǎn)化、數(shù)據(jù)知識發(fā)現(xiàn)和數(shù)據(jù)價值開發(fā)的技術(shù)過程[1]。數(shù)據(jù)挖掘依賴于人工智能、機器學習、統(tǒng)計學等多學科技術(shù)的組合,應用挖掘算法構(gòu)建挖掘模型,發(fā)現(xiàn)數(shù)據(jù)與模型之間的關(guān)聯(lián)性,建立未知事物的聯(lián)系并對未來進行預測[2]。數(shù)據(jù)挖掘技術(shù)的優(yōu)越性在于信息生產(chǎn)者、分發(fā)者通過算法將收集的數(shù)據(jù)特性進行升華,發(fā)揮其控制、過濾、記錄和判定等作用,從而實現(xiàn)個性化推薦,將尼葛洛龐帝的“我的日報”暢想變成了現(xiàn)實。但是算法技術(shù)的運用是一把雙刃劍,一方面通過賦能與賦權(quán),為用戶構(gòu)建了極具個性化的信息場域,提高了用戶使用信息的效率。另一方面,信息繭房、數(shù)據(jù)泄露、侵犯隱私、算法黑箱等信息倫理問題浮出水面,成為狂歡下的隱憂。本文將聚焦大數(shù)據(jù)時代算法傳播的風險,并在解決對策層面提出思考和建議。

一、千人千面:算法傳播的特質(zhì)描摹

算法在傳播領(lǐng)域一個重要的應用是個性化信息的智能推送。信息分發(fā)主體在收集用戶基本數(shù)據(jù)的基礎(chǔ)上,根據(jù)用戶行為、社交關(guān)系、地理位置等信息推斷其興趣偏好與需求,描繪用戶畫像,打上數(shù)據(jù)標簽,在此基礎(chǔ)上推送給用戶“喜聞樂見”的信息商品[3]145。算法傳播的特點表現(xiàn)為三個屬性,第一是智能化屬性。由于算法傳播技術(shù)是吸納如機器學習、高性能計算、模式識別、數(shù)據(jù)可視化等諸多領(lǐng)域的技術(shù)[4],可以自動記錄下用戶在互聯(lián)網(wǎng)上的每一個動作,用留痕的方式臨摹用戶的生命痕跡,并通過自主運算做出決策,從而將信息內(nèi)容特質(zhì)由“千人一面”轉(zhuǎn)化為“千人千面”,解構(gòu)了傳統(tǒng)的傳媒生態(tài)和權(quán)力模式。第二是黑箱性屬性。在控制論中,黑箱通常指的是不知的區(qū)域或系統(tǒng)。由于用戶無法認知算法邏輯,無法了解算法是如何過濾和排序信息的,因此算法對于用戶來說猶如一個密閉的黑箱或牢籠。它營造了一個由其主導的擬態(tài)環(huán)境,即維蘭·傅拉瑟在其媒介進化論中提到的數(shù)字世界,“數(shù)字幽靈”無時無刻不通過信息權(quán)力左右著用戶的價值觀念。第三是決策性屬性。不同于早期的數(shù)據(jù)采集,算法傳播為實現(xiàn)探索未知和潛在關(guān)聯(lián)的理想,在決策力上呈現(xiàn)出前所未有的能力。從1994年美國明尼蘇達大學應用協(xié)同過濾技術(shù)成功推出自動化推薦系統(tǒng)開始,到2009年谷歌、Facebook、Twitter等互聯(lián)網(wǎng)巨頭開始使用算法推薦,再到2012年“今日頭條”運用算法技術(shù)進行新聞內(nèi)容的自動分發(fā),算法能夠通過對用戶的互聯(lián)網(wǎng)內(nèi)容、個體畫像、所處場景等特征的判斷,通過有偏向的議程設置,有效滲入用戶的未知場域,凸顯出預測未來的決策力。

二、復雜隱秘:算法傳播風險的類型呈現(xiàn)

基于算法傳播的特征描摹,算法傳播可能將受眾置放于風險越來越高的信息生態(tài)中。這些風險既來自于建構(gòu)“虛擬身體”的算法模型本身的不可靠性,也來自于從“活的身體”再造“虛擬身體”過程中算法的錯誤調(diào)節(jié),還來自于將信息與身體完全脫鉤之后的失控[5]106。

(一)隱私泄露風險

算法傳播有效性的基礎(chǔ)在于基于用戶的個人信息和數(shù)據(jù)推算出用戶偏好。平臺在用戶使用之前會告知用戶可能存在一定風險,用戶同意后才可以使用。從規(guī)則層面上看,并未具有強制性。但實質(zhì)上,平臺在使用前提中所附著的例如允許平臺訪問用戶的通訊錄、圖片、視頻等條件對于用戶來說是帶有隱性強制性的,因為如果不接受就不能使用的結(jié)果會讓用戶忽視個人隱私的讓渡和消解,真實個體的透明化成為追求信息自由的代價。即切尼·利波爾德認為的“隱私逆轉(zhuǎn)”,隱私的所有權(quán)和控制權(quán)從真實個體轉(zhuǎn)移到云個體,再轉(zhuǎn)移到算法平臺[5]107。用戶在互聯(lián)網(wǎng)上為平臺提供的元數(shù)據(jù),無形中在一定程度上還原了現(xiàn)實世界中的生活圖鑒,環(huán)繞在個體周圍的有形圍墻在信息化社會已被無形之手強力拆除,“第三只眼”時刻窺視著互聯(lián)網(wǎng)中人們的生活。“交際與信息的數(shù)字化之風吹過透明社會,穿透一切,使一切變得通透可見”[6]。

同時隱私獲取與隱私提供之間的關(guān)系變得更加微妙,隱私悖論已然形成。用戶在進入平臺前對隱私保護更加敏感,而隨著用戶對平臺的浸入程度的提升以及使用體驗優(yōu)化的需求,用戶通過搜索、留痕、上傳、分享等動作,無意識地為平臺供給越來越多的隱私信息,包括數(shù)據(jù)隱私、位置隱私、身份隱私以及偏好隱私等整合型隱私,算法技術(shù)根據(jù)用戶的網(wǎng)上痕跡生成用戶畫像。平臺為用戶拆除了進入藩籬后,用戶對于隱私信息的敏感程度反而下降了,數(shù)字化生存方式讓用戶變得麻木,用隱私通貨交換信息便利成為習慣。個體暴露于數(shù)字化的全景監(jiān)獄,算法背后的技術(shù)與資本完成了對個人的監(jiān)視、規(guī)訓與剝削[7]。用戶對社交媒體上的個人信息的泄露問題還表現(xiàn)出明顯的第三人效應:用戶明知道社交媒體中存在個人信息安全問題,卻認為個人信息被入侵的風險不會發(fā)生在自己身上[8]。

(二)隱私信息再利用風險

數(shù)字化記憶是網(wǎng)絡信息時代的重要特征,個體和集體記憶的形態(tài)從生物記憶延伸到了數(shù)字空間[3]145。只要用戶在互聯(lián)網(wǎng)上留痕,信息就被記錄下來,永久記憶成為現(xiàn)實,被遺忘成為了奢望。信息的掌控權(quán)已經(jīng)被讓渡,對于信息在后期是如何被使用的,用戶完全不知情。數(shù)字化記憶的可訪問性、持久性、全面性以及由此所形成的“凝視”給我們帶來了新的挑戰(zhàn),人類日常生活面臨著數(shù)字化時間與空間雙重維度的介入[9]。這種時間和空間的交錯融合在現(xiàn)實生活中給用戶帶來的風險就是用戶信息的再利用,表現(xiàn)為在用戶建立數(shù)字腳印的基礎(chǔ)上,由他人再造出數(shù)字影子,再造過程并未得到用戶的再次確認。再利用不僅表現(xiàn)為元數(shù)據(jù)的讓渡,還表現(xiàn)為對元數(shù)據(jù)樣態(tài)再造,由此衍生出用戶不可預知的后果。個人隱私信息既具有人格屬性,又潛藏商業(yè)屬性。用戶的初始信息從上傳到社交媒體開始,已然完成了私域信息向公域信息的轉(zhuǎn)化,跳脫出隱私權(quán)保護的范疇。經(jīng)過算法的反復計算,描畫出接近真實的人格圖像并在此基礎(chǔ)上挖掘其潛在價值,這是用戶在上傳信息初始并未預料到的結(jié)果。此時用戶對個人信息完全失去了控制權(quán),人格屬性的被不法再利用可能會對個體的名譽等帶來巨大的危害。例如2020年7月,杭州一位女士去快遞站取快遞時被人偷拍了一段視頻,偷拍者與他的朋友分別飾演“快遞小哥”和“女業(yè)主”的身份,捏造了曖昧微信聊天內(nèi)容,并將拍攝視頻和聊天內(nèi)容發(fā)至微信群,編造出了“富婆出軌快遞小哥”的劇情。小視頻和聊天內(nèi)容在網(wǎng)上擴散,這位女士被網(wǎng)友謾罵,現(xiàn)實生活中也遇到了巨大的困難,最后該女士將造謠者告上了法庭。這起特殊的案件意味著個人信息被獲取后其用途的不確定性越來越大,因此對人性自由和尊嚴的尊重成為互聯(lián)網(wǎng)社會必需的價值追求。同時個人隱私信息中帶有商業(yè)屬性的信息往往會被廣告投放前的數(shù)據(jù)分析所用,在精準傳播的華麗外衣掩蓋下給用戶帶來信息騷擾等問題。如果被不法分子所用,那就可能使用戶遭遇詐騙、財產(chǎn)損失等實際危害。

(三)信息繭房風險

凱斯·桑斯坦在《信息烏托邦》一書中指出公眾的信息需求并非全方位的,人們傾向于將自己包裹在感興趣的內(nèi)容中,從而將自身桎梏在信息繭房中。信息繭房是信息聚合和信息偏食的產(chǎn)物,信息在用戶提供和算法篩選的雙重作用下,表面上為用戶跨越信息搜索的時空限制創(chuàng)造了極大的可能性,節(jié)約了社會資源,但個體所處的擬態(tài)環(huán)境也表現(xiàn)為千人千面,擬態(tài)世界與真實世界的偏離程度越來越大。個體可能無法看到被算法刻意屏蔽的那一部分真實世界,信息窄化現(xiàn)象凸顯,而這一部分真實世界的信息也許又是非常重要的,算法技術(shù)的信息喂養(yǎng)使得數(shù)字居民的眼界在開闊與縮小之間掙扎,信息干預帶來的被規(guī)訓和操控的風險也在上升?;谂d趣導向的算法推送導致受眾所接觸信息的同質(zhì)性增加,知識多樣性減少,人類的自主權(quán)在認知和行為層面都有了減退的風險[10]。德國社會學家馬克斯·韋伯曾將“合理性”分為工具理性與價值理性。工具理性強調(diào)人的行動受到追求功利的動機所驅(qū)使,強調(diào)從效果最大化的角度充分利用理性手段達到自身的目的;而價值理性認為,行動的出發(fā)點是基于責任感、榮譽和誠信等純粹信仰,強調(diào)以動機的純正和正確的手段來實現(xiàn)自身的追求[11]。當碎片化、淺表化和娛樂化成為在新媒體環(huán)境中游走的信息的重要特征時,工具理性體現(xiàn)在了對于流量的追求,但由此可能不斷給用戶呈現(xiàn)淺表的甚至低俗的內(nèi)容,算法技術(shù)背后隱藏的價值導向有可能將用戶引向一個未知的盡頭,呼喚價值理性的回歸似乎應該成為當下緊迫的聲音。

同時算法技術(shù)使得個體接收的信息重疊度越來越低,共同話題越來越少,社會黏性下降。用戶長期處在繭房中陷入固定圈層,并形成群體極化現(xiàn)象。用戶變得越來越固執(zhí),回聲室越來越堅固。對于他人觀點的接納度不斷下降,個體的孤立化加劇,反思能力和共同行動力在不知不覺中弱化。更令人擔憂的是,隨著云個體能力的膨脹,真實個體的現(xiàn)實行動力正在悄悄被削弱,通過手指完成的交往行為讓口語表達顯得多余而無力,尤其是網(wǎng)絡原住民更沉浸于“無聲世界”。長期置身于此種場景,將割裂社會的整體交往,最終會形成一個個“信息孤島”[12]。

(四)智能鴻溝風險

1990年,托夫勒在《權(quán)力的轉(zhuǎn)移》一書中提出了“數(shù)字鴻溝”概念,關(guān)注到了國家間、階層間、人群間信息能力的分化。隨著智能時代的來臨,對于數(shù)字鴻溝的認識也被提升到新的層面,謂之智能鴻溝。智能時代所造就的數(shù)字鴻溝極強地呈現(xiàn)出馬太效應:技術(shù)意義上的強者愈強、弱者愈弱,生活意義上的智能人群愈智能,非智能人群愈非智能[13]。隨著智能手機的快速普及,使用新技術(shù)層面上的溝壑在逐漸彌合,但由于算法技術(shù)強化了用戶的個性化消費方式,提供給用戶的內(nèi)容差異導致隱性溝渠的擴大正在成為現(xiàn)實。由于算法技術(shù)根據(jù)自身邏輯將用戶歸入不同圈層,貼上標簽,形成了非常隱蔽的認知偏見,繼而導致行為歧視。用戶在無法察覺偏見和歧視的情況下不斷地循跡留下數(shù)字腳印,這樣的反饋循環(huán)會在無形中擴大因為信息資源的不公正分配而形成的智能鴻溝。隨著互聯(lián)網(wǎng)的廣泛覆蓋和智能手機的快速普及,數(shù)字鴻溝的表現(xiàn)已經(jīng)從第一級的接入溝,深入擴散到第二級的使用溝和內(nèi)容溝層面[14]。

三、動因探究:算法傳播風險形成的深層原因

(一)忽視社會責任

隨著以大數(shù)據(jù)、人工智能為代表的智媒體技術(shù)的發(fā)展,在此基礎(chǔ)上衍生出了有效而完整的商業(yè)模式,盈利能力大大增強,但市場競爭也愈發(fā)激烈。為了提高自身的競爭力以實現(xiàn)經(jīng)濟利益最大化,各平臺紛紛將利用算法技術(shù)提高用戶黏性作為其努力方向,其正向效應應該得到肯定,但是有些平臺因為片面逐利而忽略社會責任的情況也不容忽視,它是算法倫理失范現(xiàn)象存在的深層原因之一。同時,行業(yè)中存在的技術(shù)壟斷也加劇了數(shù)據(jù)的商業(yè)化進程,商業(yè)公司在面對數(shù)據(jù)化帶來的利益權(quán)衡上,可能優(yōu)先考慮自身利益,算法應用商以流量和點擊率作為把關(guān)標準,公眾訴求在不透明的“算法黑箱”中被逐漸淹沒,公共力量的監(jiān)督作用也明顯弱化,這就使得隱私風險加大、智能鴻溝加深、信息繭房形成的可能性大大提高。

(二)把關(guān)人角色弱化

算法技術(shù)通過處理用戶提供的海量信息從而完成個性化推薦,這種“溺愛式”的自動化生產(chǎn)過程在逐漸消解傳統(tǒng)的把關(guān)權(quán),傳統(tǒng)把關(guān)人角色的職責和作用在技術(shù)面前明顯被弱化,機器算法將內(nèi)容簡化為一系列指標,簡單粗暴地將“社會人”視作信息商品(提供數(shù)據(jù)來源,作為信息主體)和信息消耗體,將“社會人”數(shù)據(jù)化、機械化,使得人作為人的特征被消解,取而代之的是像原子一樣無差別的信息消耗體和信息提供體(信宿和信源),這是技術(shù)科學與社會人文之間的根本差異[3]150。因此個性化推薦的信息產(chǎn)品失去了有效的監(jiān)督,工具理性和價值理性的平衡被打破,信息真實性和公信力的保證以及主流價值觀引導等方面受到了一定的挑戰(zhàn)。同時由于算法技術(shù)對于隱私信息的敏感程度低,導致個人信息被不加區(qū)分地對待和使用,缺乏情感價值判斷、責任感和媒介倫理約束的行為將使得個人信息透明化程度加深,隱私風險加大。

(三)法律法規(guī)滯后

目前,我國出臺了一系列涵蓋民法、刑法、消費者權(quán)益保護法、網(wǎng)絡安全法等涉及個人信息保護的法律法規(guī)。例如《中華人民共和國刑法》先后設置了“盜取、收買、非法提供信用卡信息罪”“非法獲取公民個人信息罪”“出售或非法提供公民個人信息罪”“侵犯公民個人信息罪”等罪責?!毒W(wǎng)絡安全法》對網(wǎng)絡運營者收集、存儲、提供個人信息進行了規(guī)定。2021年1月1日起實施的《民法典》第111條規(guī)定:“自然人的個人信息受法律保護。任何組織和個人需要獲取他人個人信息的,應當依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息”。但從目前已出臺的法律法規(guī)看,主要關(guān)注的是對信息收集存儲傳輸公開等環(huán)節(jié)的規(guī)制,而針對個人信息加工環(huán)節(jié)的規(guī)制還未受到重視。目前的法律法規(guī)保護模式較為籠統(tǒng),針對以數(shù)據(jù)挖掘加工為特質(zhì)的算法技術(shù)的管理上,立法力度、條文細化、適用效力、覆蓋面等方面都存在相對滯后的情況,這就使得灰色地帶仍然大量留存。

四、路徑構(gòu)建:算法傳播風險的治理策略

(一)以人為本,信息為人

尼爾·波茲曼在《技術(shù)壟斷:文化向技術(shù)投降》中指出,技術(shù)變革不是數(shù)量上增減損益的變革,而是整體的生態(tài)變革。算法傳播使得信息生態(tài)系統(tǒng)中的人的主體性更多地體現(xiàn)在對技術(shù)設備的應用上,“技術(shù)中立”的價值觀念導致內(nèi)容生產(chǎn)風險和價值導向風險激增。因此規(guī)避算法傳播價值風險的前提應該是在保證算法話語權(quán)重的同時增強信息生態(tài)系統(tǒng)中人的主導性,提倡以人為本、信息為人,重新審視人為主觀判斷力的作用,強化真實個體對云個體的主導作用。引入公平的算法責任倫理體系,在技術(shù)價值和人文價值之間尋求平衡點。人機協(xié)同機制的建立是提高人的主導性地位的具體措施,人與機器共同分發(fā)、共同把關(guān),清晰認知虛擬世界與現(xiàn)實世界的差異,將技術(shù)置于人的控制之下。作為新型信息生產(chǎn)主體要承擔價值引領(lǐng)的社會責任,以數(shù)據(jù)向善作為行為指引原則,過濾有違公平正義、虛假新聞、“三俗”、色情、暴力等信息,構(gòu)筑防火墻。構(gòu)建個性與多元相結(jié)合的信息模式,不僅要更精準了解用戶真實需求,還要提高用戶對公共議題的關(guān)注度,增強信息的多元化。構(gòu)建算法與人工相結(jié)合的人工影響模式,在內(nèi)容的事先研判到動態(tài)把關(guān)過程中,堅持主流價值立場和道德立場,將正確健康的價值觀賦能算法推薦,實現(xiàn)重流量、輕質(zhì)量到重流量、更重質(zhì)量的內(nèi)容評價標準的轉(zhuǎn)變,使人類不再淪為技術(shù)的附庸。

(二)除繭破繭,打破圈層壁壘

某種程度上,“信息繭房”是一個善意的提醒:技術(shù)發(fā)展到極致的情況下,人們?nèi)绾巫尲夹g(shù)“為我所用”而不是聽其擺布,走向另一個極端[15]。由于算法技術(shù)的先天缺陷和數(shù)據(jù)收集不完整,導致用戶需求在一定程度上被窄化認知,用戶日復一日接受信息的過程實際上成為了一個作繭自縛的過程。從用戶的角度上看,要破繭而出就需要提升算法素養(yǎng),算法素養(yǎng)就是在算法傳播背景下用戶對信息的選擇、判斷、理解和評估能力。用戶要有更強的自律意識,不過度依賴算法。要保持主體理性,能夠?qū)λ惴ㄍ扑偷男畔⑦M行價值判斷。要提高辨別信息的能力,變被動接受為主動選擇,有意識地過濾和規(guī)避負面輻射的劣質(zhì)內(nèi)容,防范算法權(quán)力在思想領(lǐng)域的滲透,增強對無用信息的免疫性。其次要拓寬信息接收渠道,積極聆聽多元聲音,尤其是增加接收公共信息的時間,關(guān)注社會熱點話題,降低由于信息窄化帶來的認知偏差和思想極化。用戶還可以通過培養(yǎng)豐富的興趣愛好來降低媒介的捆綁力,合理節(jié)制使用媒介。從政府的角度上看,要破繭而出就需要強化“把關(guān)人”功能,發(fā)揮引領(lǐng)作用。要審慎傳播新聞觀點,通過新聞多樣化傳播正能量信息,嚴格把控劣質(zhì)內(nèi)容的傳播。從媒體的角度上看,要破繭而出就需要充分發(fā)揮議程設置功能,提高優(yōu)質(zhì)內(nèi)容的推送頻率以及重要性引導,一定程度上打破圈層壁壘,在用戶偏好信息與多元信息之間找到平衡點。

(三)個人信息的綜合保護

首先,要結(jié)合算法技術(shù)發(fā)展特征和我國國情,完善個人信息保護法治體系,在產(chǎn)業(yè)發(fā)展(充分利用和共享用戶信息)與權(quán)利保護(降低信息流轉(zhuǎn)、泄露、再造)之間尋求平衡,理順立法與激勵之間的關(guān)系。《個人信息保護法》草案在2021年4月26日已提請全國人大常委會二次審議,該法目前還未正式出臺。針對個人信息侵害愈發(fā)嚴峻的局面,應該加快該法出臺的進程,使得個人信息保護有法可依。其次,要加強個人信息保護的實踐管理,例如區(qū)分個人一般信息與個人敏感信息,明確允許被收集的個人信息的范圍。企業(yè)或網(wǎng)絡運營商在收集個人信息時要以更突出、清晰的方式告知用戶,強化知情與同意原則,筑起合規(guī)使用個人信息的屏障。還可以設立專門的機構(gòu)對企業(yè)或網(wǎng)絡運營商收集利用個人信息的行為進行監(jiān)督管理,加重非法過度使用個人信息的侵權(quán)責任。第三,要加強用戶的個人信息保護意識,提高自我保護與尊重他人個人隱私的道德素養(yǎng)。用戶在網(wǎng)絡社交平臺自生產(chǎn)內(nèi)容時要盡量屏蔽個人敏感信息,一旦發(fā)生個人信息被侵權(quán),要及時尋求法律救濟進行維權(quán)。第四,信息生態(tài)系統(tǒng)中的企業(yè)主體要增強自律意識,制定自律協(xié)議,堅守倫理準則。加強對員工的職業(yè)道德教育,抵制泄露他人隱私的行為。充分發(fā)揮行業(yè)組織監(jiān)督、協(xié)調(diào)、引導的職能作用,建立行業(yè)監(jiān)管懲治機制,實現(xiàn)信息生態(tài)平衡發(fā)展。

猜你喜歡
個人信息算法用戶
個人信息保護進入“法時代”
基于用戶和電路的攻擊識別方法
2021少兒出版用戶觸達能力指數(shù)
敏感個人信息保護:我國《個人信息保護法》的重要內(nèi)容
主題語境九:個人信息(1)
民法典應進一步完善侵害個人信息責任規(guī)定
Travellng thg World Full—time for Rree
信用卡資深用戶
學習算法的“三種境界”
算法框圖的補全
罗平县| 张家川| 安庆市| 益阳市| 慈利县| 塘沽区| 重庆市| 清远市| 公主岭市| 木里| 铜鼓县| 黔西县| 乌拉特前旗| 青海省| 大庆市| 邵东县| 夹江县| 团风县| 博兴县| 德化县| 通河县| 调兵山市| 常山县| 樟树市| 保亭| 平度市| 垣曲县| 洪江市| 手机| 南靖县| 嘉义县| 商水县| 汉中市| 安泽县| 金湖县| 汨罗市| 红河县| 同德县| 合山市| 新蔡县| 宿迁市|