【摘要】線性代數(shù)“課程思政”建設(shè)對(duì)于實(shí)現(xiàn)強(qiáng)化價(jià)值引領(lǐng)、知識(shí)傳授、能力培養(yǎng)“三位一體”的教育教學(xué)目標(biāo)格外重要.本文以課程發(fā)展、定理和算法的形成、言傳身教的核心,以及應(yīng)用為著力點(diǎn),研究如何有效地將 “課程思政”元素融入線性代數(shù)教學(xué).
【關(guān)鍵詞】“課程思政”;線性代數(shù);教學(xué)方法
【基金項(xiàng)目】上海理工大學(xué)“教學(xué)成果獎(jiǎng)”培育項(xiàng)目,上海市課程思政領(lǐng)航高校建設(shè)項(xiàng)目.
為了貫徹習(xí)近平在全國高校思政會(huì)議上關(guān)于 “各類課程與思想政治理論課同向同行,形成協(xié)同效應(yīng)” 的講話精神,各高校紛紛開展“課程思政”的探討.線性代數(shù)是高等學(xué)校的重要公共基礎(chǔ)課程,是本科理、工、經(jīng)、管等非數(shù)學(xué)類各學(xué)科本科生的必修課程.該課程的內(nèi)容、思想及方法,對(duì)學(xué)生后繼課程的學(xué)習(xí)有直接的影響.正因如此,線性代數(shù)的“課程思政”建設(shè)對(duì)于實(shí)現(xiàn)強(qiáng)化價(jià)值引領(lǐng)、知識(shí)傳授、能力培養(yǎng)“三位一體”的教育教學(xué)目標(biāo)格外重要,具有推廣價(jià)值.
一、以課程發(fā)展歷史增強(qiáng)學(xué)生的民族凝聚力
學(xué)過線性代數(shù)的人都知道,線性代數(shù)的發(fā)展史上并沒有中國人的名字,難道說古老的中華民族在近代數(shù)學(xué)發(fā)展中落伍了?其實(shí)不然,以矩陣的起源為例,早在《九章算術(shù)》中,我們的祖先就采用分離系數(shù)的方法表示線性方程組.《九章算術(shù)》方程章中共計(jì)18道題目,其中關(guān)于二元一次方程組的有8道題目,三元的有6道題目,四元、五元的各2道題目,其求解的基本方法和加減消元法基本一致,是世界上最早的完整的簡單線性方程組的解法.而在西方,直到17世紀(jì)才由萊布尼茲提出完整的線性方程的解法.這既說明了人類的認(rèn)知途徑是從簡單到復(fù)雜,從形象到抽象,形象和抽象相結(jié)合的認(rèn)知規(guī)律,又驗(yàn)證了 “實(shí)踐—理論—實(shí)踐”的馬克思主義認(rèn)識(shí)論,更說明了中國數(shù)學(xué)對(duì)于世界的影響.
二、以定理和算法的形成樹立學(xué)生的辯證唯物觀
數(shù)學(xué)是一門客觀、嚴(yán)謹(jǐn)?shù)淖匀豢茖W(xué),體現(xiàn)了唯物論和辯證法的哲學(xué)思想.線性代數(shù)中的很多定理和算法都是從具體的客觀現(xiàn)象中抽象出來的.比如,線性方程組的解法、向量組線性相關(guān)和線性無關(guān)的判定定理等都是由實(shí)際問題歸納總結(jié)出來的,最終回歸到實(shí)踐中,經(jīng)過了“由特殊到一般,再由一般到特殊”的認(rèn)識(shí)過程及“從具體到一般,再從一般到具體”的思維方法.
三、言傳不如身教,教師是“課程思政”的核心
“課程思政”建設(shè)的關(guān)鍵在于教師.教師是課堂教學(xué)實(shí)施的主體,也是第一責(zé)任人.多年來形成的教學(xué)觀念和教學(xué)習(xí)慣,難免會(huì)讓部分教師對(duì)數(shù)學(xué)課程開展中融入課程思想政治的認(rèn)識(shí)深度不夠,認(rèn)為與己無關(guān).因此,認(rèn)識(shí)到“課程思政”的重要性和必要性,改變教師多年形成的教學(xué)觀念和教學(xué)習(xí)慣,提高育人意識(shí),才能切實(shí)做到“愛學(xué)生、有學(xué)問、會(huì)傳授、做榜樣”.
四、以實(shí)際應(yīng)用為著力點(diǎn)
線性代數(shù)有何用?這是線性代數(shù)“課程思政”的著力點(diǎn).理論來源于實(shí)踐,理論的價(jià)值最終也在實(shí)踐中體現(xiàn).線性代數(shù)在編碼解碼等領(lǐng)域有重要的應(yīng)用,可以毫不夸張地說,一半以上的實(shí)際應(yīng)用問題,最終都可以轉(zhuǎn)化成一個(gè)超大規(guī)模的線性方程組問題.下面就以幾個(gè)實(shí)際的例子說明線性代數(shù)的應(yīng)用.
1.向量在數(shù)據(jù)表示中的應(yīng)用
(1)onehot編碼.在機(jī)器學(xué)習(xí)中,對(duì)一個(gè)對(duì)象的表示有兩種常見的方式.最簡單且不需要學(xué)習(xí)的方式就是onehot編碼,它可以將研究的對(duì)象表示為向量,這個(gè)向量只有某一個(gè)分量為1,其余全為0.
可以想象有多少種類型,這個(gè)向量的維數(shù)就是多少.如果用這種方式將中文漢字向量化,假設(shè)所有的中文漢字有N個(gè),要想通過這種方式去表示這些漢字,那么每個(gè)字都需要用一個(gè)N維的向量,總共需要N×N大小的矩陣.在自然語言處理中,詞袋模型就是以此為基礎(chǔ)構(gòu)建的.
例1? 用onehot編碼表示“我愛蘋果,我愛香蕉”,一個(gè)詞語對(duì)應(yīng)著一個(gè)數(shù)字,那么上面的4個(gè)詞語,可以用下列方式編碼:
“我”的編碼為[1,0,0,0],“愛”的編碼為[0,1,0,0],“蘋果”的編碼為[0,0,1,0],“香蕉”的編碼為[0,0,0,1].
(2)分布式表示.分布式表示是一種高維空間中的向量表示方法.首先,通過某種方式得到一個(gè)低維稠密的向量表示研究對(duì)象,最典型的例子就是顏色.我們知道任何一種顏色都可以通過紅、綠、藍(lán)3種顏色混合得到,在計(jì)算機(jī)中通常使用RGB方式將顏色表示為一個(gè)三元組.比如用RGB表示粉色、淺粉色、深粉色分別為(255,182,193),(255,192,203),(255,20,147).這種表示方法可以反映顏色的相近程度.而如果要用onehot編碼表示這些顏色,對(duì)于256級(jí)的RGB來說,總共有約2563種色彩,就需要2563維向量,數(shù)據(jù)是非常高維且稀疏的.
例2 例1中的四個(gè)詞可以用以下四個(gè)三維向量表示:我 [1,1,1],愛 [1,-1,1],蘋果 [-1,1,0.5],香蕉 [-1,1,0.4].不但維數(shù)降低了,還可以直觀地看出蘋果和香蕉在語義上較為接近,因?yàn)樗鼈兌际撬?
2.線性運(yùn)算在卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)的代表算法之一,在深度學(xué)習(xí)中占有非常重要的地位.一般情況下,CNN由3個(gè)部分構(gòu)成:卷積層、池化層和全連接層.卷積層負(fù)責(zé)提取圖像中的局部特征,而卷積其實(shí)質(zhì)是一種特殊的線性運(yùn)算.
例3 假設(shè)卷積核為一個(gè)3階方陣B=010201112,圖片A=2351000122332114130032622經(jīng)卷積后可得到圖片C=141410191210311619.其運(yùn)算為對(duì)A的3階子陣的元素按系數(shù)分別為0,1,0,2,0,1,1,1,2進(jìn)行線性運(yùn)算.
c11=0×2+1×3+0×5+2×0+0×0+1×1+1×3+1×3+2×2=14;
c12=0×3+1×5+0×1+2×0+0×1+1×2+1×3+1×2+2×1=14;
c13=0×5+1×1+0×0+2×1+0×2+1×2+1×2+1×1+2×1=10;
c21=0×0+1×0+0×1+2×3+0×3+1×2+1×4+1×1+2×3=19;
c22=0×0+1×1+0×2+2×3+0×2+1×1+1×1+1×3+2×0=12;
c23=0×1+1×2+0×2+2×2+0×1+1×1+1×3+1×0+2×0=10;
c31=0×3+1×3+0×2+2×4+0×1+1×3+1×3+1×2+2×6=31;
c32=0×3+1×2+0×1+2×1+0×3+1×0+1×2+1×6+2×2=16;
c33=0×2+1×1+0×1+2×3+0×0+1×0+1×6+1×2+2×2=19.
3.特征值和特征向量在主成分分析法的應(yīng)用
在用統(tǒng)計(jì)分析方法研究多變量問題時(shí),變量個(gè)數(shù)太多會(huì)增加問題的復(fù)雜性,還會(huì)增加運(yùn)算成本.理想的做法是在減少變量個(gè)數(shù)的同時(shí),盡量保留完整的信息.實(shí)際上,有些變量之間往往具有一定的相關(guān)性,當(dāng)兩個(gè)變量之間有一定相關(guān)性時(shí),它們攜帶的信息往往有一定程度的重復(fù).
主成分分析(Principal Component Analysis,PCA)是一種統(tǒng)計(jì)方法,是設(shè)法將原來變量重新組合成一組新的相互無關(guān)的綜合變量,同時(shí)根據(jù)實(shí)際需要從中選出較少的總和變量盡可能多地反映原來變量信息.其數(shù)學(xué)定義為:一個(gè)正交化線性變換,把數(shù)據(jù)變換到一個(gè)新的坐標(biāo)系統(tǒng)中,使得這一數(shù)據(jù)的任何投影的第一大方差在第一個(gè)坐標(biāo)(第一主成分)上,第二大方差在第二個(gè)坐標(biāo)(第二主成分)上,依次類推.
假設(shè)有m個(gè)樣本數(shù)據(jù),每個(gè)數(shù)據(jù)是n維的,按列組成矩陣Xnm,則PCA步驟如下:
(1)均值化矩陣Xnm,得到X=Xnm-X-nm(其中X-nm的第i行元素均為Xnm的第i行元素的均值).
(2)求出協(xié)方差矩陣C=1m-1XXT.
(3)求出協(xié)方差矩陣C的特征值和特征向量.
(4)選取k個(gè)最大的特征值對(duì)應(yīng)的特征向量.
(5)降維矩陣Ykm=WknX.
例4 假設(shè)X2×5=22353-11122.
(1)均值化:X=X2×5-X-2×5=-1-1020-20011.
(2)協(xié)方差矩陣:C=15-1XXT=321132.
(3)特征值:λ1=52,λ2=12,取特征向量ω1=11,ω2=1-1,將特征向量單位化,ω′1=1212,ω′2=12-12.
(4)按照特征值大小排序,這里選取λ1,此時(shí)矩陣W1×2=1212.
(5)降維矩陣
Y1×5=W1×2X=1212-1-1020-20011=-32-1203212.
【參考文獻(xiàn)】
[1]劉錫平,宇振盛,何常香,魏連鑫.線性代數(shù)[M].北京:高等教育出版社,2018.
[2]曹偉麗,蔡康盛.線性代數(shù)[M].長沙:湖南科學(xué)技術(shù)出版社,2013.
[3]劉錫平,曹偉麗,宇振盛.線性代數(shù)[M].北京:科學(xué)出版社,2013.
[4]Jolliffe I T.Principal Component Analysis[M].Berlin:SpringerVerlag,2002.