国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能教育的算法風險與善治

2022-02-26 23:28:09馮永剛趙丹丹
國家教育行政學院學報 2022年7期
關(guān)鍵詞:道德人工智能算法

馮永剛 趙丹丹

(山東師范大學,山東 濟南 250014)

進入21 世紀以來,以互聯(lián)網(wǎng)普及作為發(fā)展紐帶,在物聯(lián)網(wǎng)、云計算、5G、虛擬現(xiàn)實技術(shù)的烘托下,爆炸式增長的大數(shù)據(jù)引發(fā)了社會結(jié)構(gòu)新的變革。伴隨數(shù)據(jù)處理與應用能力的不斷提升,人工智能逐漸滲透到人類生產(chǎn)和生活的各個領(lǐng)域,驅(qū)使人類社會邁入了人工智能時代。當前,人工智能教育已是教育創(chuàng)新發(fā)展的趨勢,人們期望通過人工智能與教育的深度融合化解棘手的教育問題,以實現(xiàn)人類能力的智慧打造,助力教育教學高質(zhì)量發(fā)展。在人工智能教育的發(fā)展中,算法和大數(shù)據(jù)的雙向聯(lián)合是其核心驅(qū)動力,算法更是人工智能教育發(fā)展的基礎(chǔ)。[1]通過算法將教育數(shù)據(jù)轉(zhuǎn)化為易處理、易計算的數(shù)學問題,克服了人類思維的局限性,給人類帶來的便捷是顯而易見的。在當今社會,人類的每時每刻都直接或間接地與算法相關(guān),甚至有人預測:“如果所有算法都突然停止運轉(zhuǎn),那么就是人類的世界末日?!盵2]然而,我們必須清醒地意識到,“算法絕非中立、公正的,隨著算法全面滲透生活世界,算法歧視現(xiàn)象高發(fā),已不容漠視”[3]。加之,教育因 “人” 而復雜,并非全部能夠物化為數(shù)字模型,使用算法將教育進行完全量化與預測的做法,勢必會背離教育的動態(tài)性、多元性特質(zhì),造成一定的算法風險。因此,厘清人工智能教育的算法風險及其成因,并積極規(guī)避,方可確保人工智能教育為人類帶來福祉。

一、人工智能教育的算法風險

在人工智能教育看來,所有的教育都是“可算度的教育”。算法被視為以特定函數(shù)的代碼值進入輸入端并在有限時間內(nèi)通過算法路徑輸出能夠解決目的性問題的方案?!八惴ㄊ菫閷崿F(xiàn)某個任務(wù)而構(gòu)造的簡單指令集。在日常用語中,算法有時稱為過程或處方。”[4]在人工智能教育運用中,算法是指按照預先目標設(shè)定,通過機器學習、訓練操作等一系列步驟模擬人類的思維過程和行為方式,以算法箱子輸入端和輸出端的既定數(shù)據(jù)運算模擬人類神經(jīng)工作、協(xié)助人們處理繁雜事務(wù)的過程。隨著人工智能教育的快速發(fā)展,一時間,教育領(lǐng)域被算法優(yōu)勢填充,“一切皆可計算” 的算法崇拜伴隨著這種氛圍應運而生,算法逐漸成為教育權(quán)威的代言人。[5]當然,沉浸在人工智能教育 “熱” 的同時,我們也要對人工智能教育面臨的風險進行“冷” 思考。誠如聯(lián)合國教科文組織的警示,人工智能會給教育帶來壓力和挑戰(zhàn),[6]人工智能教育的算法風險也值得我們警惕。

1.算法的既定性導致教育被淺層化的風險

在人工智能時代,算法的工作機理是固定函數(shù)公式下的智能運算和機器學習,函數(shù)一經(jīng)輸入便被既定的計算步驟所固化。因此,算法具有天然的既定性基因。莫里斯·克萊因(Morris Kline)表示,數(shù)學的成功之處在于以長度、質(zhì)量、時間等量化的概念形式來看待世界物質(zhì),但是數(shù)學符號并不能夠表達一切,比如某些豐富多彩的體驗是數(shù)學符號所不能企及的。[7]如同人的身高并不能夠代表整個人一樣,在預設(shè)教育目標下的既定性算法也不能夠代表整個教育過程。教育是一個復雜的社會活動,面對的是不同的教育群體、多元的教育訴求,是在動態(tài)中不斷生成的,絕非按部就班、機械劃一。人工智能教育依托算法對學校管理、教師教學、學生學習的過程進行量化分析,其所使用的信息多是教育對象或教育現(xiàn)象的淺層數(shù)據(jù),而并非是能反映教育本質(zhì)的深層數(shù)據(jù)。算法模型對教育事實或教育現(xiàn)象的既定化分析,易遺失教育過程中最為豐富的元素,如學生的道德感、好奇心和探究欲等,引發(fā)教育過程的淺層化和表面化。

值得注意的是,既定的算法模型所設(shè)計出的虛擬仿真學習空間、模擬訓練等并不能夠等同生動形象的真實學習情境。在算法創(chuàng)造的教育空間中,學生并不會像機器那樣按照既定路徑運作,教師也無法脫離自身環(huán)境而單純依靠算法設(shè)計進行 “流水作業(yè)”,教學成為套路固定、路徑生硬的 “游戲”;學生僅能夠獲得淺層的顯性知識,而那些緘默的活動經(jīng)驗、內(nèi)心活動、邏輯思維等高階活動都將難以得到發(fā)展,走馬觀花式的學習無異于飲鴆止渴,難以促進學生的全面發(fā)展、終身發(fā)展。

2.“黑箱” 效應下催生教育被隱形控制的風險

算法 “黑箱” 是指由于技術(shù)本身的復雜性,在算法的輸入端與輸出端之間存在著無法洞悉或未知的區(qū)域。一方面,“黑箱” 意味著我們難以理解算法內(nèi)部的邏輯與生產(chǎn)方法;另一方面,“黑箱” 也代表著其本身的復雜性導致設(shè)計者難以洞識其運動機制。正如盧克·多梅爾(Luke Dormehl)所說,我們所處的人工智能環(huán)境是依托于算法和大數(shù)據(jù)而生的,“技術(shù)對人類的理解越來越深刻,而人們卻越來越難以理解、把控技術(shù)”[8]。當算法應用于教育領(lǐng)域時,面對機器學習技術(shù)的迅速發(fā)展,人工智能教育能夠進行自我改進和自我優(yōu)化等一系列內(nèi)在的、不為人知的更新過程,我們同樣難以理解、詮釋算法處理教育問題時的邏輯機理和運作路徑。人工智能算法將自身的工作邏輯應用于教育全過程,利用自己所演化的規(guī)則實現(xiàn)學生分析、教師分析和問題處理等,而在整個教育過程中的學生、教師甚至設(shè)計者等卻并不能夠?qū)ζ涔ぷ鬟壿嬜龅?“盡知”:學生無法判定算法的自動推薦是否反映客觀事實、是否真正符合自身需求;教師無法判定依據(jù)算法得出的既定結(jié)果是否真正適合學生發(fā)展、是否真正能夠正向解決教育問題;設(shè)計者無法肯定算法所算出的確定結(jié)果是否符合預期數(shù)據(jù)設(shè)定,等等。

在算法 “黑箱” 效應下,參與者對算法路徑、工作邏輯的無法盡知令我們落入被動方位,只能被動地接受算法輸出的固定結(jié)果。在不知道其工作邏輯、不確定計算結(jié)果是否適切教育問題的情況下,貿(mào)然將其應用于教育這一培養(yǎng)人的社會實踐活動之中,其中所蘊藏的風險難以想象,易致教育成為一個失去方向、沒有活力、缺失靈動的機械執(zhí)行過程。教育參與者在“黑箱” 效應的遮蓋下,一知半解地按照算法既定結(jié)果亦步亦趨,教育的自主性正在逐漸被隱形消解。

3.算法偏見下加劇了教育不公的風險

教育公平是社會公平的子系統(tǒng),是實現(xiàn)社會公平 “最偉大的工具”[9]。隨著時代變遷,人類社會在教育公平的道路上曲折前行。在人工智能時代,算法作為一把 “雙刃劍”,可極大地促進教育公平的發(fā)展步伐,與此同時,算法又以某一種方式加劇了教育的不公。這集中體現(xiàn)為算法偏見所帶來的教育不公風險。算法是依賴數(shù)據(jù)和規(guī)則的,而數(shù)據(jù)樣本是經(jīng)過提煉選取的,在這一過程中會去除各種 “噪音” 數(shù)據(jù),再賦予其看似合理的樣本數(shù)據(jù),將其納入算法模型。加之算法偏見亦有其隱蔽的形成路徑,因此,看得見的、可計算的數(shù)據(jù)被裝入算法盒子,而看不見的、難處理的數(shù)據(jù)被剔除,在這些數(shù)據(jù)的取舍之間就產(chǎn)生了算法偏見,造成了結(jié)果狹隘。地區(qū)的教育信息化水平影響著人工智能教育的普及、深入程度,必然會拉大富裕地區(qū)與貧瘠地區(qū)受教育水平的差距,尤其是對算法偏見的認識和處理水平,會影響教育機會公平、教育過程公平,拉垮教育結(jié)果公平。

算法偏見下,打開算法盒子看得到的是符合設(shè)計者、使用者的主觀數(shù)據(jù)與程序,關(guān)閉盒子輸出的卻是代表客觀性的大眾結(jié)果。[10]如果算法存在偏見,那么將會產(chǎn)生嚴重的不公后果,尤其是針對貧困社區(qū)、弱勢群體而言。教育領(lǐng)域同樣存在性別、種族、家庭環(huán)境、教育條件等參差不齊的背景樣本。面對這些大量的樣本,難以對其進行全面評估或預測,甚至難以帶入算法中進行結(jié)果分析。同樣,教育過程中所產(chǎn)生的情感、態(tài)度和價值觀等緘默數(shù)據(jù),也難以被量化為顯性數(shù)據(jù)并加以分析,而這些不能被妥善植入算法的數(shù)據(jù)樣本,卻在極大程度上代表和體現(xiàn)著教育的公平、公正、關(guān)愛、尊重等。算法偏見的過濾,使得富有人文價值的數(shù)據(jù)被消解在外,教育不公不可避免地被放大,“數(shù)據(jù)鴻溝” 在算法偏見的加持下被拉大,教育天平進一步被拉扯傾斜,從而加劇教育公平的風險。

4.算法的大規(guī)模應用易引發(fā)教育同質(zhì)化的風險

人工智能時代,算法的大規(guī)模應用推動了技術(shù)的飛速提升?!凹夹g(shù)在追求效率的同時總是在謀求擴大受眾規(guī)模。”[11]算法的大規(guī)模運用表現(xiàn)在教育領(lǐng)域更是多種多樣,大到智慧教育的生態(tài)研究、多元學習情境下教育規(guī)律的探討,小到個性化學習的支持服務(wù)、基于教育數(shù)據(jù)的學習分析與測評、自動化決策系統(tǒng)、智能教育產(chǎn)品,都是以算法為模型的多種教育信息科技的表現(xiàn)形式。不可否認的是,算法通過 “智能導師系統(tǒng)、自動化測評系統(tǒng)、教育游戲、教育機器人”[12]等的應用對教育個性化帶來了極大的推動,促進了教師指導的個性化、學生學習的個性化。

但是,算法的大規(guī)模應用極易導致教育的程式化,使越來越多的人和教育機構(gòu)癡迷于算法規(guī)?;⒘炕鶐淼睦?,以推送算法的形式將 “人” 物化、將教育公式化,以同一的教育算法推送相同的教學資源、學習計劃等,這在一定程度上加劇了教育結(jié)果的同質(zhì)化。利用機器學習分類算法,將受眾分流到不同地點、不同時間段、不同層次的做法,從表面上看,似乎實現(xiàn)了教育的優(yōu)質(zhì)分層,實則不然。面對擁有不同學科背景、認知程度不一的受教育者,算法的規(guī)?;?、流水線使用必然會強化學生的規(guī)模化 “生產(chǎn)”,導致辦學模式單一化、學生單維同質(zhì)化生長、教育一律性發(fā)展,引發(fā)教育反特色化、合眾化、趨同化的風險,因為 “即使是優(yōu)質(zhì)的教育算法,一旦大規(guī)模使用,也會帶來湮滅學生個性的風險”[13]。同時,我們也不能忽視人工智能教育應用在一定程度上削弱了教師的指導性、學生的自主選擇性,使其成為固化學生思維、限制學生多樣發(fā)展的 “殺傷性”智能武器。

二、人工智能教育算法風險究因

深究算法風險的根由,有助于我們把握人工智能教育應用的邊界與局限,促進人工智能教育更好地適應和滿足人的發(fā)展需求。

1.算法的路徑固定化與學生個性化發(fā)展之間的矛盾

算法是依據(jù)預設(shè)的數(shù)學公式進行輸入、計算、輸出信息的運行過程,其工作路徑是固化的。算法的路徑固定化與學生的個性化發(fā)展之間的矛盾是教育被淺層化風險的主要原因。算法使每個學生都被度量化,他們不再是一個鮮活的、有機的和內(nèi)在的整體,而是被拆解成一個個便于計算和處理的數(shù)字格、被細化為 “用數(shù)據(jù)表示的物理形態(tài)的人”[14]、被打上不同的標記名片,接受不同數(shù)量的、所謂的個性化推薦信息資源。實質(zhì)上,真正的學生個性化發(fā)展是依據(jù)學生的學習動機、好奇心、興趣等來調(diào)動學生的主體性,激發(fā)其內(nèi)在潛能,而非通過算法公式化地向其推薦固定內(nèi)容。在算法固定的工作模式下,每個學生好比被獨立放進單間的信息素,被既定算法和固定工作路徑分開處理。這將加大學生之間的知識區(qū)隔,阻礙其信息交流、情感溝通、共同體建立等,將學生個性化發(fā)展扭曲為學生發(fā)展隔斷化。學生的個性化發(fā)展不是固定化的、公式化的,而是思辨能力、理解能力、合作能力等多方因素通力合作所達到的和諧景象,這顯然是固定規(guī)則下的算法無法企及的。

2.算法的模糊性與教育的公共性之間的對峙

算法 “黑箱” 意味著算法輸入端與輸出端之間有著難以洞悉的復雜結(jié)構(gòu),算法具有模糊性、難解釋性的特質(zhì)。算法的模糊性來源于算法自身的復雜性與相對獨立性,難以被解釋,更難以被理解。另外,在人工智能高速發(fā)展的背景下,機器學習的能力日益強化。通過機器自身的深度學習,其算法發(fā)展的程度與所優(yōu)化的區(qū)域,甚至連算法的初始設(shè)計者都難以獲悉,這在一定程度上強化了模糊性。而教育是公共性的實踐活動,公共性是教育的內(nèi)在屬性。教育是公益而非私人的事業(yè),具有顯著的公開、公益和公平的公共性品格。“‘公共’ 意味著向任何人的審視開放,而私人則意味著一個由家人和朋友構(gòu)成的、受到遮蔽的生活區(qū)域?!盵15]算法的模糊性與教育的公共性形成明顯反差。同時,“黑箱” 效應下算法的難解釋性,對教育者、受教育者等教育主體甚至社會公眾而言,意味著他們非但難以了解其工作的基本機制,甚或?qū)逃顒?“一概不知”,這有悖于教育的公開性。此外,算法的模糊性又在一定程度上強化了教育的排他性和私有化,引起了某些人對結(jié)果的早先獲知甚至滋生預先篡改和占有的問題,掩蔽了教育的公共性。

3.算法的數(shù)據(jù)依賴性與教育多維性之間的拉鋸

在人工智能教育應用中,算法通過數(shù)據(jù)搜集、數(shù)據(jù)清洗、數(shù)據(jù)審查、數(shù)據(jù)分割等各種數(shù)據(jù)處理來發(fā)揮作用,因此,算法具有較強的數(shù)據(jù)依賴性,且數(shù)據(jù)分布本身就帶有一定的偏見性。[16]而教育是動態(tài)的、多維的。教育的存在意義與價值在于促進人的全面而有個性的發(fā)展,這必然要求智能教育應用結(jié)果的多元化。而算法模型的建立需要使用過去的數(shù)據(jù)變量進行分析,將教師的教育行為、學生的學習行為等“過時” 的數(shù)據(jù)作為輸入數(shù)據(jù),用以解決新鮮的教育問題,數(shù)據(jù)與發(fā)展存在著時差問題。如根據(jù)相關(guān)學者對高校成績數(shù)據(jù)的研究顯示,算法的使用上具有利用不充分、分析不深入等問題。[17]在數(shù)據(jù)收集與數(shù)據(jù)輸入的過程中,對數(shù)據(jù)處理的精準度越高,數(shù)據(jù)處理的時間就會越長,其延時性就表現(xiàn)得越為明顯。同時,在教育的動態(tài)發(fā)生過程中,會涌現(xiàn)出較多的非事先預知的“意外情景”,如思維轉(zhuǎn)換、情感升華、直覺靈感和頓悟等質(zhì)變現(xiàn)象。這些變化都是難以從過往數(shù)據(jù)中推測預判,即利用已經(jīng)存在的 “信息足跡” 難以預判到教育過程的質(zhì)變現(xiàn)象,引發(fā)算法數(shù)據(jù)依賴性與教育多維性的拉鋸表現(xiàn)。

4.算法的確定性與教育過程的不確定性互相博弈

教育具有顯而易見的復雜性與不確定性。[18]教育對象的差異性、教育手段的多元化、教育情境的多變性等一系列因素都是教育不確定性的強化劑,彰顯著教育活動的獨特性的同時也給教育蒙上了神秘色彩。固定性是算法的內(nèi)在特質(zhì),需要從明確的目標出發(fā),以固定的算法公式求得預設(shè)目標的達成,以確定的輸入數(shù)據(jù)求得肯定、客觀的輸出結(jié)果。所以,算法的確定性在一定程度上與教育的不確定性有著難以調(diào)節(jié)的博弈現(xiàn)象。算法固定的、公式化的計算模式,難以與教育進程中個體隨時產(chǎn)生的動機、情感、好奇心等不定因素建立即時性的關(guān)聯(lián),教育活動中時刻涌現(xiàn) “一石激起千層浪” 的伴隨性數(shù)據(jù)在一定程度上消解了算法的確定性權(quán)威。誠然,算法力圖將教育領(lǐng)域的各項不確定因素轉(zhuǎn)化為確定性的數(shù)據(jù)形式,而確定性在一定程度上代表著人工智能應用于教育追求真善美目標的明確性,其必要性是毋庸置疑的。然而,教育真善美的標準究竟是什么?這不是算法的確定性所能確證的。而這種不確定性本身也是教育多維、多變和多樣的典型映射,如此,動態(tài)多變的教育活動與算法的確定性之間的摩擦、沖突及對抗自是難免。

三、善治人工智能教育算法風險的路徑

隨著人工智能教育的縱深發(fā)展,教育數(shù)據(jù)不斷堆疊,深度學習持續(xù)推進,算法所帶的偏見、風險等也會呈現(xiàn)出強化與放大的苗頭。因此,通過有力的善法對算法所帶來的風險加以防治就顯得日益重要且迫切。因此,要將道德嵌入算法,建立合乎道德要求、協(xié)助人們進行道德決策的道德算法,促逼算法從善。道德算法的建立,能夠保持人工智能教育應用中算法的審慎使用,有效規(guī)避算法引發(fā)的教育風險,極大發(fā)揮算法對教育的優(yōu)質(zhì)作用[19],指向 “一切為了人類利益” 的目的,從而有效規(guī)避算法風險,更好地發(fā)揮算法的正向功能,為人類帶來更多的利益和福祉。

1.優(yōu)化算法設(shè)計,以價值理性引領(lǐng)人工智能教育的深層化發(fā)展

通過優(yōu)化算法設(shè)計提升算法應用中的價值理性與人文精神,是防范人工智能教育應用中算法風險的價值指南。從算法設(shè)計意圖和最終目的入手,以扎實的算法價值根基、人的主體性地位打破淺表化的發(fā)展局限,引領(lǐng)人工智能教育的深層發(fā)展,尊重人工智能教育應用中教師與學生的主體地位,提升人工智能教育算法的風險規(guī)避力,從技術(shù)源頭加強人工智能教育的深度,從而走出應用淺表化的陷阱。

一方面,以道德算法筑牢算法的價值根基,促進人工智能教育行穩(wěn)致遠。人工智能時代,算法在技術(shù)支撐下亦帶來巨大的資本收入,因此,算法在一定程度上也是資本與技術(shù)的化身。為了防止技術(shù)理性對價值理性的僭越,人工智能教育應加強算法設(shè)計環(huán)節(jié)中的道德性與人文性精神,以價值理性為主導,以技術(shù)理性為輔助,賦予算法設(shè)計意圖正當性。要加強人工智能教育應用的源頭設(shè)計把關(guān),定期對教育算法技術(shù)人員進行倫理與科技的話題教育,嚴把信息篩選、算法設(shè)計等過程,強化算法設(shè)計者的價值理性思想,激發(fā)算法 “育人為本” 的責任意識,明確自身的算法設(shè)計對教育發(fā)展、社會發(fā)展的影響意義,以道德算法扎穩(wěn)算法的價值根基,通過算法的正當性確保人工智能教育縱深推進。

另一方面,確保技術(shù)應用中人的主體性,以人的能動性促進教育的深層化發(fā)展。無論何種智能技術(shù),都是以服務(wù)人、發(fā)展人和解放人為最終目的。在當今時代,不乏技術(shù)運用者有迫切攫取眼前利益而置人的道德與價值于不顧的短視行為,長此以往,必然會導致價值理性消解、技術(shù)理性霸權(quán)的失衡現(xiàn)象。因此,要打破技術(shù)霸權(quán)的華麗包裝,以工具性教育回歸主體性教育,要尊重人的主體地位并發(fā)揮人的主體性作用,構(gòu)建以人為中心的智能教育場域,[20]以學生的情感、態(tài)度、價值等深層次的發(fā)展和教師的教育智慧、專業(yè)能力等的不斷提升作為人工智能教育算法設(shè)計之引領(lǐng)。在算法設(shè)計中,要以生為本,深度挖掘緘默的活動經(jīng)驗、內(nèi)心活動、邏輯思維等高階活動的深層性、本質(zhì)性的數(shù)據(jù)資源,如將基于內(nèi)容、協(xié)同過濾、綜合的三種傳統(tǒng)推薦算法轉(zhuǎn)為基于排序?qū)W習的推薦算法,補充傳統(tǒng)三種算法推薦內(nèi)容各有偏差的問題,將真正的學生個性化發(fā)展融入推薦公式的編制,促進學生主體從淺表化知識學習向順應、同化不斷發(fā)展的進階學習轉(zhuǎn)化[21],增強信息推薦主體適切性,助推人工智能教育的深度發(fā)展。

2.增加算法的透明度,提升人工智能教育的自主性

為了加強算法治理,人們越來越重視算法透明性原則對算法 “黑箱” 的克制作用。誠如凱文·凱利(Kevin Kelly)所言:“技術(shù)只有透明才能獲益。”[22]增加算法的透明度可有效消解人工智能教育應用中 “算法黑箱” 所帶來的內(nèi)容遮蓋,提升人工智能教育的自主支持性,保持社會公眾對教育的公平與道義的持有與把控。

一方面,加強教育數(shù)據(jù)操作的自主可查性,以數(shù)據(jù)透明突破教育被隱形控制的桎梏。算法對大數(shù)據(jù)的強依賴性決定了規(guī)避 “算法” 風險需要從數(shù)據(jù)樣本作出調(diào)整,加強數(shù)據(jù)的透明性,確保教育數(shù)據(jù)來源可查、教育數(shù)據(jù)內(nèi)容可查、教育數(shù)據(jù)處理可查,斬斷教育被隱形控制的源頭。教育數(shù)據(jù)的可查性需要算法設(shè)計者對教育數(shù)據(jù)來源、篩選、處理步驟等做好嚴格記錄與及時備份,如明確標注數(shù)據(jù)采集樣本所在年級、年齡、學習水平、學習習慣、數(shù)據(jù)采集時間與所在地等相關(guān)信息,了解算法可能存在的偏差及潛在危害,以保證后期對數(shù)據(jù)審查與復核等步驟的可控性、可查性。同時,確保數(shù)據(jù)的備份記錄具有合法的可訪問性與不可篡改性,以嚴格、環(huán)環(huán)相扣的數(shù)據(jù)記錄審查環(huán)節(jié)保障數(shù)據(jù)隱私與安全性,使數(shù)據(jù)獲取、篩選等痕跡以備份方式被清晰保存,保證數(shù)據(jù)的完全真實與不可偽造。

另一方面,堅持可解釋性原則,增加算法的自主支持性??山忉屝允撬惴ㄍ该鞯氖滓瓌t。“鑒于智能算法日益決定著各種決策的結(jié)果,人們需要建構(gòu)技術(shù)公平規(guī)范體系,通過程序設(shè)計來保障公平的實現(xiàn),并借助于技術(shù)程序的正當性來強化智能決策系統(tǒng)的透明性、可審查性和可解釋性。”[23]要明確算法設(shè)計者對教育問題處理的算法邏輯解釋義務(wù),尤其是對教育數(shù)據(jù)的目標預設(shè)、選取原則與技術(shù)原理等進行解釋,提升人們對算法的理論認同,獲得他們對算法運用的態(tài)度支持。同時,設(shè)立專門的教育審計機構(gòu),對人工智能教育應用中的算法進行審計,避免一些商業(yè)類教育機構(gòu)以競爭獲利而故意掩蓋不合理算法的不當行為,如一些教育機構(gòu)或某些學校為謀取招生量、提高教育獲利等操縱算法黑箱、營造算法神秘性的不良行徑,在技術(shù)運用中真正使人成為自身行動的主體,為自主創(chuàng)新激發(fā)活力,不斷提升教育的自主性。

3.減少算法偏見滋生,以道德決策推進人工智能教育的公平

算法是由設(shè)計者所編寫的。設(shè)計者將倫理維度納入人工智能教育的決策設(shè)計,是形成道德決策的內(nèi)在要求。同時,教育主體對算法的了解與認識直接影響到算法在教育領(lǐng)域的應用程度。教育主體對算法的無知與偏見會在極大程度上影響人工智能教育應用的效果與公平程度。因此,減少算法偏見滋生需增強主體的算法認知,以道德決策發(fā)揮算法在解決教育問題中的積極作用,強化人工智能教育的抗風險性,力促教育公平的實現(xiàn)。

一方面,將道德規(guī)則嵌入算法之中,以道德物化推動道德決策。道德物化是由維貝克(Peter-Paul Verbeek)所提出的將技術(shù)道德化的方法。在人工智能算法 “物” 的設(shè)計環(huán)節(jié)中嵌入人類所公認執(zhí)行的道德準則,即將道德嵌入產(chǎn)品,使人工智能教育應用中的使用者不得不遵守倫理道德,從設(shè)計源頭上規(guī)約人類的行為操作。[24]據(jù)此,要將道德規(guī)則清晰轉(zhuǎn)化為算法形式,以道德物化形成道德算法,使算法自身符合道德倫理規(guī)范,協(xié)助教育者針對突發(fā)問題情境作出更及時、準確、全面的教育決策,從而有效促使教育者教育行為、教育策略的合道德化。

另一方面,加強技術(shù)使用者的道德意識,令道德決策貫穿教育教學全過程。道德算法是道德決策的遵循與依據(jù),引導教育者進行科學、公正、合理的決策。據(jù)此,要增強技術(shù)使用者的道德意識與道德理念,使道德嵌入算法,切實推動道德決策落地。這就要加強教育使用者的技術(shù)道德、規(guī)則意識、法治觀念,從技術(shù)使用的源頭保障人工智能教育具備道德基因。同時,教育者將算法運用于教育時,要秉持 “以人為本” 的治理意識,堅定育人為本的初心,深入了解算法世界的 “游戲規(guī)則”,掙脫算法所帶來的束縛與控制,保持自身作為教育者的優(yōu)勢主導地位,將自身的教育智慧與人工智能相結(jié)合,獲取教育“美美與共” 的景象。[25]

4.確立算法問責機制,以制度保障人工智能教育發(fā)展的多元性

制度具有營造秩序和提升效率的功能。[26]化解人工智能教育的 “算法” 風險,需要建立精準的問責機制,在合理的制度框架下最大限度發(fā)揮算法設(shè)計者、使用者的權(quán)限,從源頭上規(guī)避算法引發(fā)的教育同質(zhì)化風險,釋放張力,激發(fā)活力,推進人工智能教育的多樣性發(fā)展。一如貝克(Ulrich Bec)所指出:“風險概念表明人們創(chuàng)造了一種文明,以便使自己的決定將會造成的不可預見的后果具備可預見性,從而控制不可控的事情,通過采取預防性行動以及相應的制度化措施來戰(zhàn)勝種種副作用?!盵27]

一方面,建立精準追責機制,以明確的責任主體釋放人工智能教育的發(fā)展活力。面對算法帶來的教育同質(zhì)化風險,應在政府立法部門與教育主導部門的合作下建立與之對應的破解體系,以法律法規(guī)保障教育的自主性發(fā)展,打破教育的同質(zhì)化風險。如依托人工智能教育大背景,鼓勵各級各類高等教育院校特色化發(fā)展、激勵基礎(chǔ)教育學校突出本土特色,以學校辦學特色作為打破教育趨同化的先鋒隊,帶領(lǐng)不同區(qū)域、不同類型、不同層次、不同形式的教育特色化、優(yōu)質(zhì)化發(fā)展。另外,需要彌補教育法律中人工智能教育相關(guān)內(nèi)容的規(guī)則監(jiān)控,明確人工智能教育應用中設(shè)計者、使用者、推廣者等各方的法律責任、權(quán)利與義務(wù),在合法規(guī)則下最大限度地增強算法的實用度和開放性,彰顯發(fā)展活力,增加教育的開放性和多樣性。

另一方面,嚴格糾錯處罰,以制度執(zhí)行力激活人工智能教育的張力。除了法律綱領(lǐng)的強制把控,還需要提升教育算法的制度執(zhí)行力度,真正實現(xiàn)高監(jiān)管低風險的把控效果,嚴格懲治跨越道德甚至法律底線的過錯行為。要細化對教育信息獲取、教育信息使用等的制度保障,對出現(xiàn)的個人教育信息商業(yè)化使用、個人生物信息販賣等問題,要在制度執(zhí)行層面加強信息管控力度,嚴格、透明地處理 “信息犯罪” 案件。加強教育行業(yè)的市場準入標準,由政府強制執(zhí)行責任糾紛、進行過錯處罰,最大限度地把控教育教學全過程中各方的責任邊界與嚴格處罰力度,在精準追責與糾錯補償?shù)碾p效施力下,讓算法在教育領(lǐng)域更加公正透明運行,在開放中增強教育的發(fā)展動力與活力。

猜你喜歡
道德人工智能算法
頭上的星空與心中的道德律
十幾歲(2021年24期)2021-11-18 02:18:40
基于MapReduce的改進Eclat算法
跟蹤導練(五)(2)
Travellng thg World Full—time for Rree
道德是否必需?——《海狼》對道德虛無主義的思考
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
乌拉特后旗| 湖北省| 宁武县| 海门市| 房产| 伊宁市| 台湾省| 乌苏市| 许昌县| 昔阳县| 巫溪县| 五峰| 棋牌| 沙河市| 兴安盟| 石景山区| 多伦县| 岢岚县| 朔州市| 沁水县| 鄂托克旗| 土默特右旗| 呼伦贝尔市| 凉城县| 新竹县| 揭阳市| 东台市| 庄浪县| 双牌县| 鄂托克前旗| 湟源县| 民权县| 剑川县| 黔东| 卢龙县| 利川市| 红桥区| 襄垣县| 邮箱| 白朗县| 石棉县|