曾 安,王烈基 ,潘 丹,黃 殷
1.廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣州 510006
2.廣東大數(shù)據(jù)分析與處理重點(diǎn)實(shí)驗(yàn)室,廣州 510006
3.廣東建設(shè)職業(yè)技術(shù)學(xué)院 現(xiàn)代教育技術(shù)中心,廣州 510440
隨著計(jì)算機(jī)技術(shù)和生物醫(yī)學(xué)工程技術(shù)的快速發(fā)展,利用電子計(jì)算機(jī)斷層掃描、核磁共振等成像設(shè)備可以獲取多種模態(tài)的醫(yī)學(xué)圖像。由于不同模態(tài)的醫(yī)學(xué)圖像在像素間距、圖像信息上存在較大差異,通常需要結(jié)合配準(zhǔn)技術(shù)進(jìn)行多模態(tài)醫(yī)學(xué)圖像分析。醫(yī)學(xué)圖像配準(zhǔn)尋找一種最優(yōu)空間變換,使兩幅醫(yī)學(xué)影像的對應(yīng)點(diǎn)在給定相似性度量下達(dá)到空間位置和解剖位置的一致[1]。通過多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)技術(shù),在臨床上可以為醫(yī)療工作者提供更多的病理診斷信息。
目前,傳統(tǒng)醫(yī)學(xué)圖像配準(zhǔn)方法多為基于灰度的配準(zhǔn)方法,它利用兩幅圖像的灰度信息計(jì)算相似性度量,通過搜索策略尋找最大相似性度量的變換參數(shù)來完成配準(zhǔn)任務(wù)。互信息法[2]是最常見的基于灰度配準(zhǔn)方法之一,由于它配準(zhǔn)精度較高、魯棒性強(qiáng),因此在圖像配準(zhǔn)領(lǐng)域得到廣泛應(yīng)用。在互信息圖像配準(zhǔn)中,使用較多的優(yōu)化算法有:遺傳算法(Genetic Algorithm,GA)[3]、蟻群算法(Ant Colony Optimization,ACO)[4]、Powell 法[5-6]、隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)等。這些優(yōu)化算法各有優(yōu)點(diǎn)和不足之處,前兩種算法具備良好的全局搜索能力,但計(jì)算形式過于復(fù)雜,配準(zhǔn)速度較慢。Powell 法計(jì)算簡單,但在進(jìn)行高維、復(fù)雜圖像配準(zhǔn)時(shí),容易出現(xiàn)陷入局部極值的情況。
近年來,深度學(xué)習(xí)作為新興研究領(lǐng)域發(fā)展迅速,其旨在研究通過深層網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)樣本數(shù)據(jù)的內(nèi)在規(guī)律和層次特征表示。目前,常見的深度學(xué)習(xí)模型有:棧式自編碼器[7(]Stacked Autoencoder,SAE)、深度置信網(wǎng)絡(luò)[8](Deep Belief Network,DBN)、卷積神經(jīng)網(wǎng)絡(luò)[9](Convolutional Neural Network,CNN)等。其中CNN仿照生物視知覺構(gòu)建,可以對圖像進(jìn)行整體處理,因此廣泛應(yīng)用于圖像識(shí)別[10]、圖像分割[11]、圖像分類[12]等領(lǐng)域。相比于傳統(tǒng)方法只能對圖像中低級別的邊緣信息進(jìn)行提取和表征;CNN采用一系列非線性變換,通過組合低層特征形成更加抽象的高層表示(屬性類別或特征),因此能夠更加出色和快速的完成圖像應(yīng)用領(lǐng)域的各類任務(wù)目標(biāo)[13]。
針對傳統(tǒng)互信息法配準(zhǔn)速度慢、容易陷入極值的問題,本文將CNN引入到三維圖像配準(zhǔn)任務(wù)中,提出一種基于FCN和互信息的多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)方法。通過FCN 模型提取圖像顯著性區(qū)域特征,從而進(jìn)行粗配準(zhǔn),為互信息算法提供可靠的全局搜索初始點(diǎn);再結(jié)合互信息算法進(jìn)行全局搜索優(yōu)化并定位最優(yōu)三維配準(zhǔn)參數(shù)。實(shí)驗(yàn)表明,本文方法能夠快速、準(zhǔn)確地得到圖像配準(zhǔn)參數(shù)。
卷積神經(jīng)網(wǎng)絡(luò)是一種以卷積操作為基本架構(gòu)的深層神經(jīng)網(wǎng)絡(luò),通過網(wǎng)絡(luò)特有的平移不變形、卷積運(yùn)算以及池化下采樣操作來實(shí)現(xiàn)對圖像深層信息的提取和利用。
典型的CNN 主要由輸入層、卷積層、池化層、全連接層和輸出層構(gòu)成。卷積層包含若干個(gè)卷積核,通過與圖像進(jìn)行卷積操作提取圖像局部特征,得到該層的特征圖。不同的卷積核可以提取不同的圖像特征,從而增加提取特征的多樣性。池化層通過對特征圖進(jìn)行局部區(qū)域最大值提取來降低圖像維度,減少后續(xù)計(jì)算。一般地,CNN 包含了若干個(gè)由卷積層和下采樣層構(gòu)成的特征提取器,通過組合低層的圖像特征形成高層的抽象特征,提取圖像的隱式特征。全連接層的作用主要是將學(xué)習(xí)的圖像特征通過線性變換映射到樣本的標(biāo)簽空間,從而得到最終的結(jié)果。
CNN的強(qiáng)大之處在于它的多層網(wǎng)絡(luò)結(jié)構(gòu)可以自動(dòng)學(xué)習(xí)特征,淺層的卷積層可以提取豐富的局部特征,而深層的卷積層將這些局部特征進(jìn)行結(jié)合,可以學(xué)習(xí)到更加抽象的特征[14]。但是,CNN在學(xué)習(xí)的過程中可能會(huì)丟失一些物體輪廓和空間位置信息,無法對復(fù)雜圖像特征進(jìn)行精確描述。
針對CNN的缺陷,UC Berkeley的Long[15]提出了一種端到端的網(wǎng)絡(luò)結(jié)構(gòu),即全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)。FCN 是在 CNN 上的發(fā)展和延伸,兩者最大的區(qū)別是FCN 將卷積層替代了全連接層(如圖1 所示),正是這種差異,使得FCN 能夠避免全連接層線性變換導(dǎo)致圖像空間位置信息丟失,進(jìn)一步豐富特征的學(xué)習(xí)。同時(shí),由于卷積層權(quán)值共享的特性,F(xiàn)CN有效減少了網(wǎng)絡(luò)訓(xùn)練參數(shù)的數(shù)目,能夠提升模型訓(xùn)練的速度。
圖1 FCN結(jié)構(gòu)
在圖像配準(zhǔn)中,互信息一般作為浮動(dòng)圖像和參考圖像之間的相似性度量,用來測量兩者之間的相關(guān)度?;バ畔⒃酱?,表示圖像之間的相關(guān)程度越高,配準(zhǔn)效果越好?;バ畔⒂?jì)算公式如式(1)所示:
式中,H(A)和H(B)分別表示參考圖像和浮動(dòng)圖像的信息熵,H(A,B)是兩幅圖像之間的聯(lián)合熵,其具體計(jì)算公式為:
圖2 基于FCN和互信息的三維圖像配準(zhǔn)流程
式中,a∈A,b∈B,PA、PB、PAB(a,b)分別表示參考圖像和浮動(dòng)圖像各自灰度值的概率分布以及兩者聯(lián)合灰度值的概率分布。而基于互信息的配準(zhǔn)過程就是以互信息作為圖像配準(zhǔn)的相似性度量,通過搜索優(yōu)化尋找一個(gè)最優(yōu)空間變換,使得參考圖像u(x)和映射后的浮動(dòng)圖像v(Tθ(x))之間的互信息值I最大:
其中,Tθ是將浮動(dòng)圖像v(x)配準(zhǔn)到參考圖像u(x)上的空間變換,θ為變換參數(shù)。
本文采用FCN和互信息的混合優(yōu)化算法實(shí)現(xiàn)三維圖像配準(zhǔn)任務(wù)。利用FCN獲得的配準(zhǔn)結(jié)果作為互信息搜索算法的起始點(diǎn),通過進(jìn)一步搜索優(yōu)化,得到更高精度的配準(zhǔn)參數(shù),整個(gè)配準(zhǔn)流程如圖2所示。
步驟1從預(yù)處理后的三維參考圖像和三維浮動(dòng)圖像選取相同層數(shù)的10 對二維切片,輸入到訓(xùn)練后的FCN模型中進(jìn)行特征提取并完成配準(zhǔn),選取配準(zhǔn)效果最好的那組參數(shù)作為最優(yōu)二維變換參數(shù)P2D(tx,ty,θxy)。其中tx、ty分別是浮動(dòng)圖像沿x和y軸的平移量,θxy為繞xy平面圖像中心點(diǎn)的順時(shí)針旋轉(zhuǎn)角度。本文以軸向面為xy平面,矢狀面為yz平面,冠狀面為xz平面,具體實(shí)例如圖3所示。
圖3 三維圖像斷面
步驟2將得到的變換參數(shù)P2D(tx,ty,θxy)初始化為三維變換參數(shù)P3D(tx,ty,tz,θxy,θyz,θxz),其中tz為浮動(dòng)圖像沿z軸的平移量,θyz,θxz為繞yz和xz平面中心點(diǎn)的順時(shí)針旋轉(zhuǎn)角度。其中未得到的參數(shù)設(shè)置為0,并作為互信息搜索算法的初始值P3D(tx,ty,0,θxy,0,0)。
步驟3將三維浮動(dòng)圖像按照初始值進(jìn)行空間變換,通過最近鄰插值后,計(jì)算與三維參考圖像的互信息值。當(dāng)滿足收斂條件時(shí),優(yōu)化結(jié)束,得到最終的三維變換參數(shù)P3D′(tx′,ty′,tz′,θxy′,θyz′,θxz′)。否則繼續(xù)通過隨機(jī)梯度下降法對三維變換參數(shù)進(jìn)行優(yōu)化。
圖4 展現(xiàn)了本文所構(gòu)建的FCN 二維圖像配準(zhǔn)模型。整個(gè)模型由兩部分組成,即參考圖像和浮動(dòng)圖像各自的多尺度特征提取器Multi-Scale Layer,以及通過Concatenate 級聯(lián)合并[16(]圖中為字母C 表示)后的公共特征提取器Public Layer。
在Multi-Scale Layer 中,借鑒Inception網(wǎng)絡(luò)多尺度模型結(jié)構(gòu)[17],采用三種不同卷積尺寸的卷積層(1×1、3×3、5×5)來獲取原始圖像多個(gè)尺度的信息,通過Concatenate級聯(lián)合并得到更豐富的初始淺層圖像特征;再使用兩層卷積對特征進(jìn)一步提取,并參考ResNet 中跳躍式連接(Skip Connection)[18]對Conv4 得到的特征圖像重復(fù)利用,提升模型訓(xùn)練效率。
通過Concatenate 級聯(lián)對浮動(dòng)圖像和參考圖像各自特征進(jìn)行合并后,再利用7 個(gè)步長為2 的5×5 卷積核獲取共同特征中尺度較大的深層、抽象特征,最后采用3×3卷積核對圖像特征綜合分析,得到二維配準(zhǔn)空間變換參數(shù)(X方向的平移量、Y方法平移量以及XY平面的旋轉(zhuǎn)角度)。除了最后一層,每層卷積層后緊跟一個(gè)批規(guī)范處理(Batch Normalization,BN)以及Relu非線性激活函數(shù)[19]用于提升網(wǎng)絡(luò)的學(xué)習(xí)擬合能力。整個(gè)模型使用均方誤差作為損失函數(shù),并使用L2 正則化防止模型過擬合。
實(shí)驗(yàn)數(shù)據(jù)來源于中山大學(xué)附屬腫瘤醫(yī)院的鼻咽癌診斷臨床數(shù)據(jù)集,共80 份三維頭-頸部計(jì)算機(jī)斷層圖像(CT)、核磁共振圖像(MR)以及相應(yīng)的三維配準(zhǔn)參數(shù)標(biāo)簽。其中MR 數(shù)據(jù)的尺寸為720×720×100,像素間距為0.69 mm×0.69 mm×3 mm;CT 數(shù)據(jù)的尺寸為512×512×100,像素間距為0.97 mm×0.97 mm×3 mm。本文將CT作為參考圖像,MR作為浮動(dòng)圖像,通過三維配準(zhǔn)將MR圖像映射到CT 圖像上。在實(shí)驗(yàn)過程中,首先隨機(jī)選取75組三維數(shù)據(jù),每組數(shù)據(jù)提取第20張至第80張?zhí)卣髅黠@的二維軸向面切片用于FCN模型的訓(xùn)練,剩下的5組數(shù)據(jù)用于測試。
圖4 FCN二維配準(zhǔn)模型結(jié)構(gòu)
為了提高配準(zhǔn)精度,提升模型的魯棒性。本文在FCN模型訓(xùn)練前對圖像進(jìn)行了以下預(yù)處理操作:
(1)下采樣。醫(yī)學(xué)圖像尺寸較大,模型訓(xùn)練時(shí)間較長,為了盡可能不損失圖像信息的同時(shí)又能減少模型訓(xùn)練時(shí)間,分別對CT 和MR 圖像的每一份軸向面切片進(jìn)行二倍下采樣操作。采樣后的MR和CT圖像大小分別為360×360×100、256×256×100。
(2)高斯去噪。通過高斯去噪來消除圖像中的噪聲像素,保證圖像中的有效信息不受影響。
(3)數(shù)值歸一化。為了消除奇異像素點(diǎn)所導(dǎo)致的不良影響以及加速模型收斂,分別將CT、MR 圖像的像素值進(jìn)行歸一化操作,公式如下:
其中,xnorm為歸一化后的像素值,x為原始像素值,xmin和xmax分別為原始圖像中的像素最小值和像素最大值。
(4)重采樣。為了使CT、MR 圖像具有相同的像素間距以及像素尺寸,便于配準(zhǔn)操作,需要對MR 圖像進(jìn)行重采樣操作。重采樣操作是對MR 圖像的灰度信息按照CT 圖像的像素間距以及尺寸大小重新采樣插值,構(gòu)成新圖像。經(jīng)過重采樣操作后,MR圖像的尺寸以及像素間距與CT圖像相同。
(5)數(shù)據(jù)增強(qiáng)。本文對MR圖像的軸向面切片進(jìn)行隨機(jī)的旋轉(zhuǎn)、平移變換操作,從而產(chǎn)生新的二維切片,擴(kuò)充數(shù)據(jù)樣本,提升模型的泛化能力。其中Y方向的平移變換范圍為[-40,40]像素點(diǎn),X方向的平移變換范圍為[-40,40]像素點(diǎn),旋轉(zhuǎn)的角度變換范圍為[-15,15]。經(jīng)過8 次數(shù)據(jù)增強(qiáng)操作后,訓(xùn)練樣本由原來的4 500 份增加到36 000份。
本文的實(shí)驗(yàn)硬件環(huán)境為CentOS 7.4,64 位操作系統(tǒng),92 GB內(nèi)存,CPU為E5-2640 2.00 GH。在進(jìn)行FCN模型訓(xùn)練時(shí),使用glorot正態(tài)分布方法對網(wǎng)絡(luò)權(quán)重進(jìn)行初始化,使用Adam 算法[20]對FCN 進(jìn)行參數(shù)優(yōu)化,學(xué)習(xí)率為1.0,每批次輸入切片張數(shù)(batch size)為64,訓(xùn)練次數(shù)為10 000,L2 正則化系數(shù)為0.1。在進(jìn)行互信息配準(zhǔn)時(shí),搜索迭代次數(shù)最大值為800,變換參數(shù)振幅為0.01,允許誤差為0.001。
為了定量評估算法性能,本文選用了相似性系數(shù)(Dice similarity Coefficient,DSC)、互信息(Mutual Information,MI)、相關(guān)系數(shù)(Correlation Coefficient,CC)以及配準(zhǔn)時(shí)間作為CT、MRI 多模態(tài)配準(zhǔn)結(jié)果的評價(jià)指標(biāo)。其中相似性系數(shù)用于度量實(shí)際配準(zhǔn)結(jié)果與理論配準(zhǔn)結(jié)果的重合度:
A和B分別表示通過本文方法配準(zhǔn)后的浮動(dòng)圖像以及通過標(biāo)簽參數(shù)配準(zhǔn)后的浮動(dòng)圖像。
相關(guān)系數(shù)數(shù)學(xué)計(jì)算公式如下所示:
其中,N代表圖像中像素點(diǎn)的個(gè)數(shù),Mi表示浮動(dòng)圖像的灰度值,Si表示參考圖像的灰度值,M′、S′分別表示浮動(dòng)圖像和參考圖像的平均灰度值。DSC、MI 以及CC指標(biāo)都是值越高代表配準(zhǔn)效果越好。
為了更加客觀地反映本文算法的有效性,選擇以下五種算法作為對比算法,與本文方法進(jìn)行比較:
(1)文獻(xiàn)[2]中基于互信息的配準(zhǔn)算法。
(2)文獻(xiàn)[6]中基于Powell優(yōu)化的配準(zhǔn)算法。
(3)文獻(xiàn)[21]中基于脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)和互信息結(jié)合的配準(zhǔn)算法,該方法使用PCNN進(jìn)行粗配準(zhǔn)再結(jié)合互信息算法精配準(zhǔn)從而得到最終結(jié)果。
(4)文獻(xiàn)[22]中基于頭腦風(fēng)暴(MBSO)和Powell 結(jié)合的配準(zhǔn)算法,該方法采用MBSO 算法粗配準(zhǔn)再結(jié)合Powell算法精配準(zhǔn)來完成配準(zhǔn)任務(wù)。
(5)文獻(xiàn)[23]中基于AIR-net模型的配準(zhǔn)方法,AIR-net使用生成對抗網(wǎng)絡(luò)來構(gòu)建配準(zhǔn)模型。
首先驗(yàn)證FCN 模型在二維圖像上的配準(zhǔn)效果,在FCN 模型訓(xùn)練結(jié)束后,隨機(jī)抽取50 例二維測試樣本進(jìn)行測試,并與文獻(xiàn)[2]、[6]以及文獻(xiàn)[21]、[22]、[23]中的配準(zhǔn)方法進(jìn)行比較。其中一例的配準(zhǔn)結(jié)果如圖5 所示,圖5(a)為CT參考圖像,圖5(b)為MR浮動(dòng)圖像,圖5(c)~(h)分別為互信息算法、Powell 算法、PCNN+互信息算法、MBSO+Powell 算法、AIR-net 模型以及本文 FCN 模型的配準(zhǔn)結(jié)果。
表1 列出了50 次實(shí)驗(yàn)中FCN 模型與對比算法在DSC、MI、CC 以及配準(zhǔn)時(shí)間指標(biāo)上的平均值。結(jié)果顯示,F(xiàn)CN模型在配準(zhǔn)精度各項(xiàng)指標(biāo)的表現(xiàn)都要優(yōu)于其他算法,取得了更精確的配準(zhǔn)效果。在配準(zhǔn)速度上,F(xiàn)CN模型有量級的提升,平均配準(zhǔn)時(shí)間相比于互信息算法、Powell 算法、PCNN+互信息算法以及 MBSO+Powell 算法分別縮短了92.53%、91.13%、86.16%、81.89%。這是因?yàn)橐陨纤姆N對比算法都是通過多次迭代優(yōu)化來尋找最優(yōu)配準(zhǔn)參數(shù),所以配準(zhǔn)時(shí)間較長,而FCN通過大量樣本訓(xùn)練已經(jīng)具備極強(qiáng)的特征提取和表征能力,從而能夠快速、準(zhǔn)確地從圖像特征分布中得到配準(zhǔn)參數(shù),因此配準(zhǔn)速度有大幅度的提升;雖然AIR-net配準(zhǔn)速度也很快,但是該網(wǎng)絡(luò)是基于生成對抗網(wǎng)絡(luò)構(gòu)建的,存在訓(xùn)練不穩(wěn)定的問題,無法較好地學(xué)習(xí)圖像特征,因此配準(zhǔn)性能差于本文構(gòu)建的FCN 配準(zhǔn)模型。在多次實(shí)驗(yàn)的前提下,充分證明了FCN 模型具有很強(qiáng)的魯棒性,可以為三維互信息算法提供可靠的初始點(diǎn)。
表1 二維圖像配準(zhǔn)結(jié)果對比
在FCN 配準(zhǔn)的基礎(chǔ)上,繼續(xù)驗(yàn)證本文提出的基于FCN和互信息的方法在三維圖像上的配準(zhǔn)性能,并與文獻(xiàn)[2]、[6]、[21]、[22]的配準(zhǔn)方法進(jìn)行對比。實(shí)驗(yàn)選取3份待配準(zhǔn)的三維CT、MR 圖像進(jìn)行測試,首先從三維CT、MR 數(shù)據(jù)中隨機(jī)抽取10 份相對應(yīng)的二維切片輸入到FCN 模型進(jìn)行配準(zhǔn),并選取DSC 值最高的那組二維配準(zhǔn)參數(shù)作為互信息搜索算法的初始值,再通過互信息算法進(jìn)一步搜索優(yōu)化得到最終三維配準(zhǔn)結(jié)果。圖6 為其中一份數(shù)據(jù)的配準(zhǔn)結(jié)果,圖6(a)和圖6(b)分別為三維CT 參考圖像、MR 浮動(dòng)圖像的軸向面、矢狀面、冠狀面,圖6(c)為配準(zhǔn)前CT和MR圖像的融合結(jié)果,圖6(d)為通過本文方法配準(zhǔn)后的融合結(jié)果。表2 為本文算法與對比算法在多項(xiàng)性能指標(biāo)的評估度量值。
從圖6 可以看出,通過本文方法配準(zhǔn)后,浮動(dòng)圖像和參考圖像的空間位置和解剖位置基本一致,能夠得到理想的配準(zhǔn)結(jié)果。從表2多組實(shí)驗(yàn)中可以看出,本文方法在相似度量值DSC,互信息值MI,相關(guān)系數(shù)值CC 均取得最大值,同時(shí)在配準(zhǔn)速度上有非常顯著的提升,平均配準(zhǔn)時(shí)間相比于Powell算法、互信息算法、PCNN+互信息算法以及MBSO+Powell 算法分別縮短了69.93%、74.96%、49.51%、39.36%。這是因?yàn)閭鹘y(tǒng)互信息法以及Powell 法在進(jìn)行三維圖像配準(zhǔn)時(shí)受到了局部極值的干擾,沒有獲得更優(yōu)的全局解;而本文方法經(jīng)過FCN二維精確配準(zhǔn)后的結(jié)果已經(jīng)較為接近最優(yōu)解,再使用互信息算法進(jìn)行搜索優(yōu)化時(shí),既能縮小全局最優(yōu)解的搜索范圍,提升配準(zhǔn)速度;又能避免局部極值的干擾,獲得更高的配準(zhǔn)精度。
圖5 二維圖像配準(zhǔn)融合結(jié)果
圖6 三維圖像配準(zhǔn)融合結(jié)果
表2 三維圖像配準(zhǔn)結(jié)果對比
與PCNN以及MBSO相比,F(xiàn)CN能夠得到更接近最優(yōu)解的初始值,因此再結(jié)合搜索算法進(jìn)行精配準(zhǔn)時(shí),本文算法比PCNN+互信息算法以及MBSO+Powell 算法具有更快的配準(zhǔn)速度和更高的準(zhǔn)確性。
從二維、三維配準(zhǔn)結(jié)果得出,本文構(gòu)建的FCN模型具有極強(qiáng)的圖像特征提取能力,可以快速、精確地實(shí)現(xiàn)二維配準(zhǔn),并能為三維配準(zhǔn)的互信息搜索算法提供可靠初始參數(shù),再使用互信息算法進(jìn)一步搜索優(yōu)化時(shí),能夠避免局部極值的干擾并大幅度提提升配準(zhǔn)速度。本文方法在二維、三維圖像上的配準(zhǔn)結(jié)果均優(yōu)于其他算法的配準(zhǔn)結(jié)果,能夠高效、準(zhǔn)確地完成多模態(tài)圖像配準(zhǔn)任務(wù)。
針對現(xiàn)有醫(yī)學(xué)圖像配準(zhǔn)算法收斂速度慢以及易陷入局部極值的問題,本文提出了一種基于FCN 和互信息的配準(zhǔn)方法,通過FCN提取圖像特征進(jìn)行二維配準(zhǔn),再結(jié)合互信息算法進(jìn)一步搜索優(yōu)化實(shí)現(xiàn)三維配準(zhǔn)。實(shí)驗(yàn)表明,在二維和三維多模態(tài)圖像配準(zhǔn)中,本文構(gòu)建的FCN配準(zhǔn)模型以及FCN和互信息算法都能取得不錯(cuò)的配準(zhǔn)結(jié)果,具有較強(qiáng)的魯棒性。與傳統(tǒng)配準(zhǔn)算法相比,本文提出的算法在配準(zhǔn)速度和配準(zhǔn)精度方面均有不同程度的提高,對臨床應(yīng)用中的醫(yī)學(xué)圖像配準(zhǔn)具有一定的使用價(jià)值和借鑒性。但由于互信息法需要計(jì)算高維聯(lián)合分布,所以在一定程度上降低了配準(zhǔn)效率,如何進(jìn)一步挖掘深度學(xué)習(xí)的價(jià)值,在訓(xùn)練樣本不足的情況下訓(xùn)練出魯棒性較強(qiáng)的三維配準(zhǔn)模型將會(huì)是下一步研究的重點(diǎn)。