国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種動態(tài)雙模態(tài)線陣相機的聯(lián)合標定方法

2024-09-12 00:00:00王羚李金龍羅林高曉蓉
現(xiàn)代電子技術(shù) 2024年5期

摘" 要: 在實際工業(yè)應用中,線陣相機在被測物體運動速度快、拍攝視場范圍廣以及精度要求高的場景下比面陣相機更具優(yōu)勢,并且將二維圖像數(shù)據(jù)與三維點云數(shù)據(jù)相結(jié)合能使信息量更豐富,能更好地還原真實場景。為提高在工業(yè)應用場景下的雙模態(tài)數(shù)據(jù)的結(jié)合精度,提出一種動態(tài)雙模態(tài)線陣相機的聯(lián)合標定方法,該方法能實現(xiàn)簡便快捷的2D線掃相機與3D線掃相機之間的聯(lián)合標定。實驗結(jié)果表明,該算法能以較小計算量實現(xiàn)高精度雙模態(tài)雙線掃相機的聯(lián)合標定。

關(guān)鍵詞: 線陣相機; 聯(lián)合標定; 雙模態(tài)數(shù)據(jù); 畸變校正; 二維圖像; 三維點云

中圖分類號: TN98?34; TH74" " " " " " " " " " " " 文獻標識碼: A" " " " " " " " " " 文章編號: 1004?373X(2024)05?0148?07

Joint calibration method for dynamic bimodal line array cameras

WANG Ling, LI Jinlong, LUO Lin, GAO Xiaorong

(School of Physical Science and Technology, Southwest Jiaotong University, Chengdu 610031, China)

Abstract: In view of the actual industrial applications, line array cameras have more advantages than area?array cameras in the scenes of fast motion of the objects under test, wide shooting field of view and high accuracy requirements. In addition, the combination of 2D image data and 3D point cloud data can make the information richer and restore the real scene better. Therefore, a joint calibration method for dynamic bimodal line array cameras is proposed to improve the accuracy of the combination of bimodal data in industrial application scenarios. This method can realize simple and fast joint calibration between 2D line scan camera and 3D line scan camera. The experimental results show that the proposed algorithm can realize the joint calibration of high?precision bimodal dual?line?scan cameras with a small amount of computation.

Keywords: line array camera; joint calibration; bimodal data; aberration correction; 2D image; 3D point cloud

0" 引" 言

相機標定是機器視覺中的重要步驟,聯(lián)合標定更是目標檢測等計算機視覺領(lǐng)域中的關(guān)鍵問題之一。對不同模態(tài)的數(shù)據(jù)進行聯(lián)合標定,利用計算機對多模態(tài)數(shù)據(jù)進行綜合處理從而執(zhí)行目標檢測,能使獲取的數(shù)據(jù)形式更豐富[1]。在某些被測物體運動速度快、拍攝視場范圍大以及精度要求高的工業(yè)場景中,線陣相機的各項指標相較于面陣相機更具優(yōu)勢[2]。但線陣相機的標定原理較復雜,其相關(guān)研究內(nèi)容相對面陣相機較少,且目前絕大多數(shù)有關(guān)線陣相機標定的理論研究都著眼于單線陣相機,或是二維雙線陣相機的標定,主要用于提高精度以達到后續(xù)三維重建中圖像匹配的要求。

隨著現(xiàn)代工業(yè)技術(shù)的發(fā)展,二維數(shù)據(jù)與三維數(shù)據(jù)的融合技術(shù)能更充分地結(jié)合顏色數(shù)據(jù)以及幾何信息,在實際場景中應用非常廣泛。對于相機拍攝得到的數(shù)據(jù)而言,相機之間的標定精度很大程度上決定了最終拍攝到的圖像數(shù)據(jù)與三維數(shù)據(jù)能實現(xiàn)的融合精度[3],所以實現(xiàn)相機之間的高精度聯(lián)合標定很有必要。

國內(nèi)外對不同模態(tài)數(shù)據(jù)的相機間聯(lián)合標定進行了很多嘗試。針對雙模態(tài)相機之間的聯(lián)合標定而言,目前大多數(shù)的研究著眼于相機與激光雷達之間的標定。文獻[4]在2010年提出了一種利用全向相機系統(tǒng)對三維激光掃描儀進行外部校準的方法。文獻[5]利用棋盤格的邊緣檢測對相機以及三維激光雷達進行了外參標定。文獻[6]通過擬合三維點云中棋盤的4個角,將兩相機之間的標定轉(zhuǎn)換為三維到二維的匹配問題,也就是未校準透視n點(Uncalibrated Perspective?n?Point, UPnP)算法完成聯(lián)合標定。文獻[7]采用普通的盒子,分別從圖像以及點云中提取盒子角點,建立點到點的約束關(guān)系完成標定。文獻[8]提出采用一種同時提取球體中心的標定方法實現(xiàn)聯(lián)合標定。上述方法在多模態(tài)的聯(lián)合標定內(nèi)容上已經(jīng)取得了很好的成效,但是仍然存在一些不足,如標定過程中需要人工手動操作對某些特征點進行篩選,自動化程度不夠,標定步驟較為復雜,且上述多模態(tài)聯(lián)合標定針對的是面陣2D相機獲取的圖像與三維點云數(shù)據(jù)之間的校準,在適用線陣2D的工業(yè)檢測場景下,靈活度不夠高。

針對該問題,本文設(shè)計了一種由Apriltag[9]二維碼組合而成的三維標定靶標,并提出了一種針對線陣2D相機與線陣3D相機的標定方法,通過搭建2Damp;3D視覺模組來實現(xiàn)動態(tài)雙模態(tài)線陣相機的高精度聯(lián)合標定。該方法不需要制作精密復雜的標定板,也不需要高精度移動平臺,且實施方便、操作性強,為工業(yè)雙模態(tài)線陣相機的采集應用場景提供了一種有效方法。

1" 基本原理

1.1" 線陣2D相機成像原理

線陣2D相機的成像幾何模型可以由面陣相機的成像過程推導而來,其成像模型可以看作是世界坐標系、相機坐標系、圖像坐標系以及像素坐標系之間的轉(zhuǎn)換關(guān)系[10]。面陣相機在成像過程中的坐標系如圖1所示。

圖1中:[p]點的像素坐標點[(u,v)]與其對應世界坐標系物點[P(Xw,Yw,Zw)]之間的變換關(guān)系可以表達為式(1):

[Zcuv1=fx0u000fyv0000" 10R3×3T3×101×311×1XwYwZw1=m11m12m13m14m21m22m23m24m31m32m33m34XwYwZw1] (1)

式中:([Xw,Yw,Zw])表示世界坐標系下的[P]點坐標;[R]表示世界坐標系與相機坐標系之間的旋轉(zhuǎn)矩陣;[T]是世界坐標系與相機坐標系之間的平移向量,統(tǒng)稱為相機外參;[fx=fdx],[fy=fdy],[f]為該相機的焦距;[u0]、[v0]稱為相機內(nèi)參;3×4矩陣[m11~m34]表示相機成像矩陣。公式(1)可以概述為面陣相機的成像幾何模型。

線陣相機相對于面陣相機來說,捕獲圖像的傳感器只有一行或者幾行,相當于公式(1)中的[v]行可簡化為0,得到簡化后的表達式(2):

[Zcu01=fx0u000fy000010R3×3T3×101×311×1XwYwZw1=m11m12m13m14m21m22m23m24m31m32m33m34XwYwZw1] (2)

公式(2)就是典型的線陣2D相機的成像幾何模型,其中[fy≠0]不需要標定。

1.2" 線陣3D相機成像原理

本文采用的西克Ranger相機,是一種基于激光線掃原理的線掃3D相機,其掃描成像系統(tǒng)如圖2所示。

激光線掃3D相機主要采用激光三角法[11]來獲得待測物深度信息,激光發(fā)生器發(fā)射激光到被測物體表面,形成激光條紋,由相機對圖像進行采集,通過連續(xù)移動將分別采集到的圖像通過處理器對激光條紋的中心線進行提取,提取出中心線坐標數(shù)據(jù),再轉(zhuǎn)換成含有深度信息的三維點云數(shù)據(jù)。

激光三角法主要分為直射式和斜射式,本實驗中采用的線掃3D相機主要基于直射式激光三角法,其原理如圖3所示。

將相機靶面上的成像點到基準點之間的距離表示為[z'],被測物體表面到基準面之間的高度差為[z],其關(guān)系式為:

[z=l×z'×sinβd×sinα-z'×sin (α+β)] (3)

式中:[α]表示入射到基準面的激光線與其反射光線的夾角;[β]表示相機靶面與從基準面反射到相機中的激光線之間的夾角;[l]、[d]分別代表成像物距和像距。

西客Ranger相機內(nèi)部集成了從掃描的剖面生成對應3D數(shù)據(jù)的算法,能夠直接輸出高精度的3D數(shù)據(jù)。

1.3" 線陣2D與線陣3D相機聯(lián)合標定原理

不論是面陣相機還是線陣相機,由于鏡頭的制作裝配等流程不會是百分百理想的,也就是從世界坐標系物點[P]到其對應[p]點之間不能視作完全理想化的投影過程,真實的[p'(x',y')]點相對于理想成像點[p]之間是存在誤差的。由于本文針對線陣相機進行畸變校正,而線陣相機僅存在一行或幾行成像單元,所以只考慮[x]軸方向的畸變,將[p(x,y)]與[p'(x',y')]之間的位置關(guān)系表達為:

[x'=x+δxx,y] (4)

式中[δx]表示[x]軸方向上的鏡頭畸變量。

非線性鏡頭畸變[12]主要存在三種類型:徑向畸變、離心畸變以及薄棱鏡畸變。徑向畸變主要是由鏡頭中各透鏡存在的曲面誤差導致的;離心畸變主要由鏡頭光軸和相機光軸之間不同軸而導致;薄棱鏡畸變則主要由鏡頭加工裝配安裝等問題引起。文獻[13]指出,鏡頭畸變建模時可以舍棄高階分量,有時考慮過多高階分量反而會造成測量結(jié)果的不穩(wěn)定。因此,將線陣相機的畸變模型簡化為:

[x'=xd+k1+k2xd+k3x2d+k4x3d] (5)

式中:[k1]、[k2]、[k3]、[k4]代表畸變校正系數(shù);[xd]=[xf]=[XcZc]。公式(5)中的畸變校正可以對線陣相機拍攝圖像中的每一個像素點進行計算,且只考慮[x]軸方向上的畸變校正,最終可以根據(jù)公式(5)算出二維圖像每一個像素列的標定值完成畸變校正。而在實驗中設(shè)置的線掃相機拍攝圖像的像素列的個數(shù)應當與畸變校正數(shù)據(jù)值的個數(shù)相一致。

本實驗采用的線掃3D相機是Ranger相機,對于輸出的三維點云數(shù)據(jù)以及強度圖是自動標定完成的,所以兩臺相機中只針對線陣2D相機完成上述圖像去畸變操作。

本實驗以公式(2)為出發(fā)點設(shè)計聯(lián)合標定實驗方案,公式(2)表示線陣相機標定中世界坐標系的物點對應像素坐標系中的像素點之間的轉(zhuǎn)換關(guān)系。通過搭建由線陣2D相機以及線陣3D相機組合而成的2Damp;3D視覺模組,兩個相機的行方向在搭建時采用機械對齊,將公式(2)轉(zhuǎn)換為更為簡潔的單維度標定法[14],從而極大地減少該算法計算量。用于聯(lián)合標定中,世界坐標系的物點由線陣3D相機輸出的被測物真實點云值替代,像素坐標系中的像素點則直接對應線陣2D相機拍攝得到的二維圖像像素點。使用該2Damp;3D視覺模組對靶標進行掃描采集,分別提取特征點對應像素坐標以及真實世界坐標,通過多組對應特征點對解析得到兩相機之間的轉(zhuǎn)換關(guān)系式。

首先是針對聯(lián)合標定中靶標的設(shè)計,相機的標定精度與合適靶標的選擇息息相關(guān)。考慮到標定對于特征點對提取的準確性要求,本實驗選取了二維碼AprilTag作為靶標圖案,AprilTag是由密歇根大學的APRIL機器人實驗室提出的。官方對AprilTag的描述是視覺基準系統(tǒng)(Visual Fiducial System)[15],其應用領(lǐng)域包括AR、機器人、相機校正等,本實驗標定采用的系列為tag36h11。由于要解析二維圖像特征點像素坐標與世界坐標之間的對應關(guān)系,特征點在三維空間中的深度信息參與公式計算,所以本文采用的是三維立體靶標。于是設(shè)計出一種由多組二維碼圖案相結(jié)合的三維立體靶標,將tag36h11系列中不同序列二維碼圖案打印下來,粘貼在H形的長桿兩側(cè),中間的連接桿空出以方便移動靶標時進行抓取,每張二維碼平面與H形長桿平面形成30°左右的夾角,不同二維碼之間相互平行,使得在相機以二維碼平面平行于相機移動掃描時,能在H形長桿兩側(cè)形成前后的空間距離差,也就是靶標圖案所呈現(xiàn)出來的3D狀。相較于平面維度的靶標,立體形態(tài)的靶標結(jié)構(gòu)能夠增加一個維度的約束,有效提高了標定的穩(wěn)定性[16]。

線陣2D相機與線陣3D相機之間的聯(lián)合標定流程如圖4所示。

待設(shè)置好兩個相機的采集幀率后,以適當?shù)囊苿铀俣纫苿影袠?,使線陣2D相機與線陣3D相機都能同時采集到H形靶標兩側(cè)相對完整的二維碼圖案,以此作為聯(lián)合標定的數(shù)據(jù)。線陣2D相機分辨率設(shè)置為4 096×2 000,利用公式(5)計算出每一個像素列的標定值,對應4 096個2D線陣去畸變校正數(shù)據(jù)。

線掃3D相機掃描靶標除了能夠采集到被測物點云數(shù)據(jù),還能輸出對應強度圖數(shù)據(jù)。由于上述2Damp;3D視覺模組的兩個相機行方向在搭建時就采用了機械對齊的光學搭建形式,其掃描的[Yw]以及[v]值在聯(lián)合標定中并不重要,因此能減少一個維度在標定中的限制。對式(2)進行簡化,得到化簡后的聯(lián)合標定轉(zhuǎn)換關(guān)系式,見式(6):

[Zcu1=m′11m′12m′13m′21m′22m′23XwZw1] (6)

將式(6)展開可得:

[Zc×u=m′11×Xw+m′12×Zw+m′13Zc=m′21×Xw+m′22×Zw+m′23] (7)

對式(7)進行化簡,即:

[u=m′11×Xw+m′12×Zw+m′13m′21×Xw+m′22×Zw+m′23] (8)

又因為三維點云無法直觀體現(xiàn)出靶標的紋理圖案信息,所以本實驗通過處理強度圖來反推特征點的三維點云坐標,從強度圖中找出各個特征角點的像素坐標后,代入點云數(shù)據(jù)中相對應的[Xw]與[Zw],輸出各個特征點相對應的三維物理坐標[(Xw,Zw)]值。最后利用最小二乘法求解公式(6)中的轉(zhuǎn)換矩陣,完成線陣2D相機與線陣3D相機之間的聯(lián)合標定。

2" 實驗結(jié)果及分析

2.1" 實驗數(shù)據(jù)分析

首先由線陣2D相機采集靶標得到的二維圖像以及二維畸變矯正圖像數(shù)據(jù),如圖5、圖6所示。

由線陣3D相機采集得到的三維數(shù)據(jù)的強度圖如圖7所示。

該強度圖對應的點云數(shù)據(jù)如圖8所示。

二維圖像的分辨率為4 096×2 000,強度圖的分辨率為2 560×2 000。

該線陣3D相機拍攝到的強度圖需要先進行水平的鏡像反轉(zhuǎn),才能從中檢測到相應二維碼序列以及在強度圖上對應特征角點的像素坐標。而后同時輸入畸變矯正后的二維圖像以及鏡像翻轉(zhuǎn)后的強度圖進行特征點提取,首先篩選出兩張圖像都能檢測到的二維碼,對比各個二維碼的序列號,序列號相同的特征角點同時輸出,一一對應。分別檢測到的二維碼序號以及角點如圖9、圖10所示。

二維圖檢測到的特征點數(shù)據(jù)可直接代入公式(8)計算,但是強度圖檢測到的特征點是針對強度圖像素坐標而言的,需代入由3D線陣相機拍攝輸出的點云數(shù)據(jù)反推出各個特征點對應的[Xw]、[Zw]值。由于在利用強度圖找二維碼角點時進行了鏡像翻轉(zhuǎn)處理,所以在求真實三維[(Xw,Zw)]坐標時需要處理強度圖鏡像翻轉(zhuǎn)帶來的影響。計算所得部分[u]、[Xw]、[Zw]數(shù)據(jù)如表1所示,其中檢測到的特征點對共計44組。

得到檢測特征點對應的[u]、[Xw]、[Zw]值,將公式(8)變換為[u=m11m23x+m12m23z+m13m23-m21m23xu-m22m23zu],通過最小二乘法求解,得到2D線陣相機與線陣3D相機之間的轉(zhuǎn)換矩陣,也稱幾何模型[m11m23m12m23m13m23m21m23m22m231]的值。計算結(jié)果如表2所示。

2.2" 驗證實驗及分析

上述實驗已經(jīng)完成了線陣2D相機和線陣3D相機之間的多模態(tài)聯(lián)合標定,得到了兩相機之間的轉(zhuǎn)換矩陣,但該計算結(jié)果可靠與否還需要由更多組數(shù)據(jù)進行驗證。本實驗的驗證方法是:采用另外一組同樣類型的數(shù)據(jù)對強度圖進行鏡像翻轉(zhuǎn),識別其中的特征角點,推出對應特征角點的三維空間[Xw]、[Zw]值,將找到的特征點的[Xw]、[Zw]值代入公式(8),得到“重投影”后的像素值[u],相當于采用重投影誤差對實驗所得的轉(zhuǎn)換矩陣進行精度評估。驗證實驗第一組數(shù)據(jù)如表3所示。

第一組驗證數(shù)據(jù)重投影后最大像素誤差約為4.7個像素。

驗證實驗第一組數(shù)據(jù)重投影后在相應去畸變后二維靶標圖上的特征點數(shù)據(jù)如圖11所示。

圖上并非所有的二維碼角點都存在紅點標注,原因是由于存在反光等噪聲對實拍數(shù)據(jù)的影響,并非所有的二維碼圖標都能同時被相應圖像和強度圖檢測出來。

驗證實驗第二組數(shù)據(jù)如表4所示。

第二組驗證數(shù)據(jù)重投影后最大像素誤差約為4.3個像素。

驗證實驗第二組數(shù)據(jù)重投影后在相應去畸變后二維靶標圖上的特征點數(shù)據(jù)如圖12所示。

以上兩組不同的驗證數(shù)據(jù)組都分別包含了60組特征點對。

從驗證實驗結(jié)果可知,采用本實驗對線陣2D相機以及線陣3D相機所做的聯(lián)合標定實驗,反映在兩組驗證數(shù)據(jù)組的結(jié)果上,最大誤差不超過4.7個像素值。

從主觀上對該聯(lián)合標定的質(zhì)量進行判斷,根據(jù)兩組驗證實驗的數(shù)據(jù)圖像來看,重投影后的特征角點觀察上幾乎都處于對應的正確二維碼角點位置。從客觀上評價,本實驗采用了另外兩組同類型數(shù)據(jù)對實驗所得的聯(lián)合標定轉(zhuǎn)換矩陣進行重投影驗證,用三維點云數(shù)據(jù)得到的世界坐標系下的特征角點對應[Xw]、[Zw]值,通過轉(zhuǎn)換矩陣投影到線陣2D相機所得的二維圖像上,比較投影點和真實點之間的像素差,得到像素誤差,由驗證實驗結(jié)果可知,最大像素誤差不超過4.7個像素值。驗證了本文線陣2D相機與線陣3D相機聯(lián)合標定算法的有效性,能夠?qū)崿F(xiàn)雙模態(tài)雙線陣相機之間的高精度標定。同時,采用便捷的靶標,無需借助精密的移動平臺,僅需手動以合適的角度進行數(shù)據(jù)采集就能實現(xiàn)高精度的聯(lián)合標定,能夠滿足如采集各型動車組車頂、車側(cè)、車底(走行部)高品質(zhì)二維和三維圖像等工業(yè)場景的實際應用要求,具有可觀的應用前景。

3" 結(jié)" 論

線陣2D相機作為圖像信息采集傳感器,具有采集頻率高、拍攝視場范圍廣等優(yōu)點,能克服傳統(tǒng)面陣相機幀幅率受限、難以達到應用現(xiàn)場測量需求的缺點。線掃3D相機能獲取待測物體的三維點云以及強度圖信息,具有豐富的空間信息,但是分辨率低,且缺少真實的色彩紋理信息。因此,采用一種聯(lián)合標定算法,將線陣2D相機拍攝到的二維圖像與線掃3D相機獲得的點云數(shù)據(jù)進行聯(lián)合標定,得到兩相機之間的轉(zhuǎn)換關(guān)系,就能夠保留兩種數(shù)據(jù)模式的優(yōu)勢,豐富數(shù)據(jù)的信息量,從而提高后續(xù)應用的整體性能。

本文在總結(jié)了單線陣相機以及多線陣相機現(xiàn)有標定算法的基礎(chǔ)上,提出了一種動態(tài)雙模態(tài)線陣相機的聯(lián)合標定方法。通過線陣2D相機與線陣3D相機某一方向機械對齊的光學布局搭建形式,組成了2Damp;3D視覺模組,完成了圖像模態(tài)與三維點云數(shù)據(jù)模態(tài)數(shù)據(jù)之間的高質(zhì)量、高精度聯(lián)合標定,使得兩相機于運動垂直方向的偏差在4.7個像素以內(nèi),取得了良好的實驗測試效果。為后續(xù)2Damp;3D視覺模組在實際工業(yè)中的高品質(zhì)二維和三維圖像的采集應用奠定了基礎(chǔ)。

注:本文通訊作者為李金龍。

參考文獻

[1] 韓義波,楊新鋒,滕書華,等.激光與紅外融合目標檢測[J].紅外與激光工程,2018,47(8):204?210.

[2] 王艷,袁峰,姜宏,等.基于三線陣CCD空間目標的高精度位姿解算[J].光學學報,2018,38(5):207?215.

[3] 張佳,唐義,卞子煜,等.三維點云與可見光圖像融合方法及可視化[J].激光與光電子學進展,2023,60(6):416?422.

[4] PANDEY G, MCBRIDE J, SAVARESE S, et al. Extrinsic calibration of a 3D laser scanner and an omnidirectional camera [J]. IFAC proceedings volumes, 2010, 43(16): 336?341.

[5] ZHOU L, LI Z, KAESS M. Automatic extrinsic calibration of a camera and a 3D LiDAR using line and plane correspondences [C]// 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: IEEE, 2018: 5562?5569.

[6] WANG W, SAKURADA K, KAWAGUCHI N. Reflectance intensity assisted automatic and accurate extrinsic calibration of 3D LiDAR and panoramic camera using a printed chessboard [J]. Remote sensing, 2017, 9(8): 851.

[7] PUSZTAI Z, EICHHARDT I, HAJDER L. Accurate calibration of Multi?LiDAR?Multi?Camera systems [J]. Sensors, 2018, 18(7): 2139.

[8] TóTH T, PUSZTAI Z, HAJDER L. Automatic LiDAR?camera calibration of extrinsic parameters using a spherical target [C]// 2020 IEEE International Conference on Robotics and Automation (ICRA). New York: IEEE, 2020: 8580?8586.

[9] TANG D Q, HU T J, SHEN L C, et al. AprilTag array?aided extrinsic calibration of camera?laser multi?sensor system [J]. Robotics and biomimetics, 2016, 3: 59.

[10] 王國琿,錢克矛.線陣相機標定方法綜述[J].光學學報,2020,40(1):181?193.

[11] 劉源,沈小燕,陳愛軍,等.基于線激光三角法的圓孔尺寸測量研究[J].應用激光,2020,40(2):308?314.

[12] WANG J H, SHI F H, ZHANG J, et al. A new calibration model of camera lens distortion [J]. Pattern recognition, 2007, 41(2): 607?615.

[13] TSAI R. A versatile camera calibration technique for high?accuracy 3D machine vision metrology using off?the?shelf TV cameras and lenses [J]. IEEE journal on robotics and automation, 1987, 3(4): 323?344.

[14] 劉懷廣,王迪,楊金堂,等.鋰電池涂布在線測量中的線陣相機標定方法[J].激光與光電子學進展,2019,56(11):184?189.

[15] MUHAMMAD S A, SALMAN A, KARSTEN B, et al. Analysis and improvements in AprilTag based state estimation [J]. Sensors (Basel, Switzerland), 2019, 19(24): 5480.

[16] 王慶,譚镕軒,馮悠揚,等.基于三維標定板的相機?激光雷達聯(lián)合標定方法[J].中國慣性技術(shù)學報,2023,31(1):100?106.

新宾| 双流县| 宿州市| 黎川县| 扶余县| 深泽县| 石柱| 唐河县| 衡水市| 汕尾市| 元阳县| 任丘市| 荣成市| 巩义市| 易门县| 左权县| 临漳县| 盖州市| 双城市| 双鸭山市| 苍山县| 宁国市| 穆棱市| 赤壁市| 饶河县| 怀柔区| 博乐市| 南宁市| 二连浩特市| 铅山县| 图木舒克市| 和硕县| 元谋县| 凉山| 将乐县| 布拖县| 金秀| 东乌珠穆沁旗| 绥阳县| 内江市| 信丰县|