国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于經(jīng)驗(yàn)學(xué)習(xí)的空間機(jī)器人精細(xì)抓捕方法*

2015-06-09 20:50孫富春劉春芳
關(guān)鍵詞:類(lèi)別形狀姿態(tài)

孫富春,劉春芳

(清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,北京 100084)

?

基于經(jīng)驗(yàn)學(xué)習(xí)的空間機(jī)器人精細(xì)抓捕方法*

孫富春,劉春芳

(清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,北京 100084)

機(jī)器人在空間環(huán)境下完成對(duì)復(fù)雜形狀物體的精細(xì)操作,要求其具有較強(qiáng)的自主操作規(guī)劃能力.從學(xué)習(xí)人類(lèi)經(jīng)驗(yàn)出發(fā),模仿人類(lèi)經(jīng)驗(yàn)生成來(lái)建立經(jīng)驗(yàn)數(shù)據(jù)庫(kù),提出有效的物體分類(lèi)方法,在物體類(lèi)別基礎(chǔ)上,識(shí)別同類(lèi)物體的可抓取區(qū)域,并提出“單拇指”姿態(tài)規(guī)劃方法,將對(duì)物體的操作經(jīng)驗(yàn)泛化到同類(lèi)物體的操作規(guī)劃中.試驗(yàn)證明了算法的有效性.

精細(xì)操作;空間機(jī)器人;人類(lèi)經(jīng)驗(yàn);抓取規(guī)劃;物體分類(lèi).

0 引 言

空間機(jī)器人自主完成各種精細(xì)靈巧操作仍然是一個(gè)具有挑戰(zhàn)性的難題.復(fù)雜形狀物體的表達(dá)、靈巧手多自由度的逆運(yùn)動(dòng)學(xué)計(jì)算是兩大主要難題.人類(lèi)能夠靈巧的操作各種各樣的物體,其主要原因之一是人類(lèi)能夠從操作具體物體的過(guò)程中,總結(jié)歸納經(jīng)驗(yàn),并將經(jīng)驗(yàn)應(yīng)用于對(duì)新物體的操作.本文通過(guò)學(xué)習(xí)人類(lèi)經(jīng)驗(yàn)以及模擬經(jīng)驗(yàn)生成的規(guī)律,實(shí)現(xiàn)基于經(jīng)驗(yàn)學(xué)習(xí)的機(jī)器人精細(xì)操作.

美國(guó)NASA研制的Robonaut機(jī)器人可以通過(guò)遙操作完成抓取工具等任務(wù).操作者利用數(shù)據(jù)手套、跟蹤器等的運(yùn)動(dòng)映射到Robonaut來(lái)指其完成操作.這種方法依賴(lài)于人的操作,并沒(méi)有真正把人的經(jīng)驗(yàn)轉(zhuǎn)化成機(jī)器人的知識(shí)[1-7].本文將學(xué)習(xí)人類(lèi)操作經(jīng)驗(yàn)的生成規(guī)律,并將人類(lèi)經(jīng)驗(yàn)轉(zhuǎn)化為機(jī)器人的經(jīng)驗(yàn).

從經(jīng)驗(yàn)中學(xué)習(xí)在認(rèn)知構(gòu)架中已被公認(rèn)是一種重要的認(rèn)知能力,利用經(jīng)驗(yàn)將有助于機(jī)器人在類(lèi)似環(huán)境下重復(fù)相同或相似的任務(wù),實(shí)現(xiàn)更多的自主任務(wù)規(guī)劃.在Galindo的研究成果中,基于記憶的推理是通過(guò)從記憶中檢索類(lèi)似的問(wèn)題并進(jìn)行一定的調(diào)整來(lái)實(shí)現(xiàn).因此,學(xué)習(xí)對(duì)經(jīng)驗(yàn)的歸納,機(jī)器人可以學(xué)習(xí)并找到解決一類(lèi)問(wèn)題的方法.經(jīng)驗(yàn)獲取的重要來(lái)源之一是對(duì)視覺(jué)傳感信息的分析.通過(guò)功能、屬性等對(duì)物體進(jìn)行分類(lèi),概念化對(duì)一類(lèi)物體的描述,而非具體單個(gè)物體,使經(jīng)驗(yàn)操作能夠泛化到對(duì)同類(lèi)別物體的操作中[8-10].

依據(jù)上述生成規(guī)律,本文首先利用形狀描述子對(duì)物體進(jìn)行分類(lèi);在獲取物體類(lèi)別標(biāo)簽后,機(jī)器人能夠迅速找到相應(yīng)的操作經(jīng)驗(yàn),并進(jìn)行有效地調(diào)整,實(shí)現(xiàn)對(duì)同類(lèi)別物體的精細(xì)操作.

1 抓取數(shù)據(jù)庫(kù)建立

1.1 任意物體形狀表達(dá)

采用Kinect RGB-D攝像機(jī)可以直接得到物體表面的三維點(diǎn)云序列. 三維點(diǎn)云能夠在三維空間上表達(dá)物體的方向、位置、尺寸與形狀信息,可以為物體識(shí)別與靈巧手姿態(tài)規(guī)劃提供有效信息. 三維描述子通過(guò)三維點(diǎn)云中的點(diǎn)與其鄰域點(diǎn)之間的相對(duì)位置與方向關(guān)系來(lái)描述物體的形狀與姿態(tài)等信息,如3D Zernike, spin images, 3D Shape Context, FPFH, PFHRGB, SHOT,USC 等等.文獻(xiàn)[11-13] 對(duì)比了13種三維描述子在物體分類(lèi)識(shí)別與算法執(zhí)行效率方面的能力.結(jié)果顯示:SHOT(signature of histograms of orienTations)描述子在物體分類(lèi)識(shí)別與執(zhí)行效率方面綜合較優(yōu),所以本文采用SHOT描述子在三維空間中表達(dá)物體的形狀信息.SHOT三維描述子2012年由文獻(xiàn)[14]中提出,具有良好的形狀匹配能力,不受物體旋轉(zhuǎn)影響,抗噪聲能力強(qiáng),尺寸歸一化后,能夠不受物體尺寸大小變化的影響.本文對(duì)SHOT描述子進(jìn)行有效改進(jìn),在豐富其表達(dá)能力的同時(shí),對(duì)其進(jìn)行有效降維,減少物體識(shí)別過(guò)程中的時(shí)間消耗.

計(jì)算落入柵格內(nèi)點(diǎn)云與該特征點(diǎn)之間的夾角余弦,并將該夾角余弦值分為11類(lèi),由落入不同夾角余弦類(lèi)中點(diǎn)的數(shù)量形成直方圖.因此,該特征點(diǎn)可以用球體柵格內(nèi)夾角余弦直方圖的組合來(lái)表達(dá).

圖1 SHOT 3維形狀描述子Fig.1 SHOT 3D shape descriptor

SHOT描述子采用特征值分解方法在物體三維點(diǎn)云中每個(gè)特征點(diǎn)處建立一個(gè)局部坐標(biāo)系.以每個(gè)特征點(diǎn)為圓心,利用特征點(diǎn)處局部坐標(biāo)系建立3D球體,并沿徑向、緯向以及半徑方向?qū)⑶蝮w分成空間柵格.物體上局部點(diǎn)云落入不同的空間柵格內(nèi).

本文對(duì)SHOT三維描述子進(jìn)行如下改進(jìn):(1)SHOT描述子在構(gòu)建過(guò)程中,球體半徑設(shè)為0.5d.d是物體點(diǎn)云內(nèi)最大距離.球體半徑的增大,使得SHOT描述子在表達(dá)特征點(diǎn)相對(duì)于整個(gè)物體的位置以及表達(dá)在局部鄰域內(nèi)物體表面變化等方面的能力增強(qiáng).(2)將SHOT描述子的維度由352維擴(kuò)展到594維,包括徑向6維,緯向3維,半徑方向3維,并將夾角余弦值分為11類(lèi),以增強(qiáng)算法的描述能力.(3)除SHOT特征之外,每個(gè)特征點(diǎn)處的局部坐標(biāo)系(9維LR特征)也被用于描述物體的位姿特征.由此,每個(gè)特征點(diǎn)由603維的向量來(lái)表示.由2 000×603的數(shù)據(jù)矩陣來(lái)描述其形狀與位姿(2 000個(gè)特征點(diǎn),594維的SHOT描述,9維的LR描述).

設(shè)M為2 000×603維的物體描述矩陣.對(duì)于物體分類(lèi)與存儲(chǔ)而言,M矩陣數(shù)據(jù)量巨大.本文提出有效的M矩陣降維方法.

SHOT特征:用sj={si,j|i=1,2,…,594}表示SHOT特征,sj={si,j|i=1,2,…,2 000}.沿點(diǎn)方向提取以下特征,

范圍特征:R(sj)=max(sj)-min(sj)

標(biāo)準(zhǔn)偏差特征:

最大特征值特征:STS.

同時(shí),算法中也可以加入顏色信息.基于以上對(duì)任意物體的形狀特征表達(dá),利用極限學(xué)習(xí)機(jī)(ELM)對(duì)物體進(jìn)行分類(lèi),以識(shí)別物體的類(lèi)別.

2 可抓取區(qū)域的學(xué)習(xí)與泛化

本小節(jié)利用SHOT描述子對(duì)點(diǎn)云中點(diǎn)的描述進(jìn)行可抓取區(qū)域及抓取點(diǎn)的學(xué)習(xí).此外,由于許多日常生活物體都設(shè)計(jì)有專(zhuān)門(mén)的抓取手柄,識(shí)別這些可抓取部位對(duì)完成任務(wù)非常重要.在離線數(shù)據(jù)庫(kù)的建立過(guò)程中,對(duì)于每一類(lèi)物體,用SHOT描述子表示三維點(diǎn)云中每一個(gè)點(diǎn),并由人在物體三維點(diǎn)云中標(biāo)出可抓取部位,設(shè)0標(biāo)簽為不可抓取部位,1標(biāo)簽為可抓取部位.這樣, 可以直接學(xué)習(xí)到人的經(jīng)驗(yàn).由于機(jī)器學(xué)習(xí)機(jī)SVM能夠用于小數(shù)據(jù)量的知識(shí)學(xué)習(xí),比較適合可抓取部位的學(xué)習(xí).

在實(shí)際場(chǎng)景中,單視角僅能獲取物體的局部點(diǎn)云信息.因此,本文的可抓取點(diǎn)識(shí)別也是在真實(shí)的局部點(diǎn)云上(直接從Kinect獲取得到)學(xué)習(xí)獲取.

3 抓取姿態(tài)的經(jīng)驗(yàn)庫(kù)

對(duì)于三指靈巧手Barretthand,抓取姿態(tài)變量包括手腕位置Pw∈R3,手腕方向θw∈R3以及手指關(guān)節(jié)角度θf(wàn)=[θ1θ2θ3θ4]T,其中θ1,θ2,θ3為每指的關(guān)節(jié)角度,θ4為手指1與手指2的分開(kāi)角度.設(shè)抓取函數(shù)G用于評(píng)估抓取姿態(tài)

G=f(θf(wàn),Pw,θw)

(1)

抓取函數(shù)通過(guò)三個(gè)接觸點(diǎn)評(píng)估抓取姿態(tài)的情況,包括穩(wěn)定性、接觸點(diǎn)構(gòu)成的三角形是否容易達(dá)到穩(wěn)定狀態(tài)以及機(jī)械手尺寸等[15-20].

f(θf(wàn),Pw,θw)是機(jī)械手抓取某個(gè)具體物體的姿態(tài)參數(shù),直接存儲(chǔ)在數(shù)據(jù)庫(kù)中,不適合大數(shù)據(jù)量的情況,也無(wú)法表示該類(lèi)抓取的共性特征.由此,本文在機(jī)械手姿態(tài)經(jīng)驗(yàn)庫(kù)中, 存儲(chǔ)以下姿態(tài)規(guī)劃經(jīng)驗(yàn)值:抓取點(diǎn)識(shí)別分類(lèi)器、手掌接近物體的方向向量以及手掌位置識(shí)別分類(lèi)器.抓取點(diǎn)附著在物體上,可以用上述的SHOT形狀描述子分類(lèi)識(shí)別.手掌位置識(shí)別分類(lèi)器,由與接近方向垂直的平面上手掌位置相對(duì)于物體位置的參數(shù)訓(xùn)練得到.該思路源于對(duì)同類(lèi)物體抓取時(shí),抓取相對(duì)方位不變,而接近物體的距離值隨物體的尺寸變化而變化.

4 基于經(jīng)驗(yàn)庫(kù)的抓取姿態(tài)規(guī)劃

在實(shí)時(shí)操作環(huán)境中,當(dāng)遇到新物體時(shí),首先判斷物體的類(lèi)別,由類(lèi)別標(biāo)簽將物體導(dǎo)引到相應(yīng)的操作經(jīng)驗(yàn).因此,當(dāng)已知物體的類(lèi)別時(shí),可以獲知物體的可抓取點(diǎn)、接近方向與手掌相對(duì)位置信息.

機(jī)械手類(lèi)型多種多樣(三指、五指、9自由度、20自由度等),很少能有跟人手完全一樣的類(lèi)型.然而,幾乎所有的機(jī)械手都包含跟人類(lèi)大拇指作用相近的機(jī)械手指(與其它手指方向相對(duì)).因此,學(xué)習(xí)人類(lèi)大拇指姿態(tài)的經(jīng)驗(yàn), 研究基于單手指的實(shí)時(shí)姿態(tài)規(guī)劃方法,有利于將經(jīng)驗(yàn)應(yīng)用于不同類(lèi)型的機(jī)械手上.對(duì)文獻(xiàn)[21]中方法進(jìn)行改進(jìn),利用已建立的經(jīng)驗(yàn)庫(kù),提出如下機(jī)械手姿態(tài)規(guī)劃方法.這里,將機(jī)械手與大拇指相對(duì)應(yīng)的手指稱(chēng)為單手指.

設(shè)ur=[Tr,pr]∈R6為單手指相對(duì)于物體坐標(biāo)系O的方向和位置,pr∈R3是接觸點(diǎn)的位置,可以從經(jīng)驗(yàn)庫(kù)中獲取.Tγ=(Tα,Tβ,Tγ)∈R3是三個(gè)旋轉(zhuǎn)角,其中Tα、Tβ與接近方向和方位經(jīng)驗(yàn)相關(guān),唯有Tγ(手指的彎曲程度)隨物體變化而變化.由此,ur=ur(Tγ),uγ被簡(jiǎn)化為只有單一變量Tγ的函數(shù).

圖2 單手指坐標(biāo)系Fig.2 Coordinate system of the single finger

通過(guò)單手指的逆運(yùn)動(dòng)學(xué)以及手腕的約束,最終Barrett手將抓取姿態(tài)規(guī)劃的自由度由10個(gè)減為3個(gè).

G=f(θ32,Tγ,θ4)

(2)

設(shè)i-1Ti為坐標(biāo)系i與i-1之間的齊次轉(zhuǎn)換矩陣.單手指的運(yùn)動(dòng)學(xué)可以表示為

OTT=OTwwT11T22T33TT

(3)

因此,

OTw=OTT(wT11T22T33TT)-1

(4)

OTw表示手腕與物體坐標(biāo)系間的齊次轉(zhuǎn)換矩陣.利用經(jīng)驗(yàn)庫(kù)中相應(yīng)的單手指抓取點(diǎn)經(jīng)驗(yàn)與抓取姿態(tài)與方位經(jīng)驗(yàn),可以求取抓取新物體時(shí)的手腕位置與姿態(tài).

5 實(shí)驗(yàn)驗(yàn)證

5.1 物體分類(lèi)效果測(cè)試

利用II-A改進(jìn)的描述方法對(duì)物體進(jìn)行分類(lèi),訓(xùn)練與測(cè)試數(shù)據(jù)集包括完全點(diǎn)云數(shù)據(jù)集PSB(princeton shape benchmark)與局部點(diǎn)云集Large RGBD.后者直接從Kinect傳感器中獲取局部點(diǎn)云,包括51個(gè)類(lèi)別物體.從中選取10個(gè)在形狀上不同的物體類(lèi)別(球、咖啡杯、食物袋、食物盒、醬盒、盤(pán)子、膠水、訂書(shū)器、老虎鉗及水瓶等),每類(lèi)物體包括6個(gè)從3個(gè)角度拍攝的不同物體, 其中4個(gè)用于訓(xùn)練,2個(gè)用于測(cè)試.采取三種學(xué)習(xí)方法對(duì)物體的特征描述進(jìn)行分類(lèi),ELM(極限學(xué)習(xí)機(jī))、多維的KNN方法與(RandFst)隨機(jī)森林法.PSB點(diǎn)云集的顏色信息被忽略,所以不考慮PSB點(diǎn)云的ELM(color)分類(lèi).表1是分類(lèi)準(zhǔn)確率對(duì)比結(jié)果.真實(shí)局部點(diǎn)云集L-RGBD在ELM(color)分類(lèi)器下的效果最好,達(dá)到97.2%.個(gè)別物體形狀(食物盒與醬盒等)差別不大,導(dǎo)致個(gè)別分類(lèi)失敗.

表1 分類(lèi)結(jié)果

5.2 可抓取區(qū)域的識(shí)別

利用SHOT 3D描述子描述點(diǎn)云中每個(gè)特征點(diǎn),用于區(qū)分可抓取區(qū)域與不可抓取區(qū)域.圖3展示了復(fù)雜形狀物體可抓取部位的訓(xùn)練與測(cè)試.橫排左三個(gè)是訓(xùn)練數(shù)據(jù),右三個(gè)是測(cè)試數(shù)據(jù).紅色點(diǎn)云為可抓取區(qū)域,藍(lán)色點(diǎn)云為不可抓取區(qū)域.點(diǎn)云集來(lái)自于PSB.由識(shí)別結(jié)果可以看出SHOT 3D形狀描述子的效果非常好.盡管物體形狀復(fù)雜多樣(如圖3中手槍、椅子、眼鏡、杯子等),所提方法仍能比較好的在同類(lèi)別測(cè)試物體中識(shí)別可抓取區(qū)域.同樣,從Large RGBD數(shù)據(jù)集中獲取的真實(shí)局部點(diǎn)云集(杯子),設(shè)可行的穩(wěn)定抓取點(diǎn)標(biāo)簽為1,不可行的為0,實(shí)現(xiàn)分類(lèi)識(shí)別可行抓取點(diǎn)(如圖4所示).圖4為杯子的訓(xùn)練樣例,用于獲取單手指的穩(wěn)定抓取點(diǎn)識(shí)別器.黃色是可抓取區(qū)域,中間紅色點(diǎn)是可抓取點(diǎn),藍(lán)色為不可抓取區(qū)域.相應(yīng)的圖5展示了用圖4中4個(gè)杯子樣例訓(xùn)練獲得的抓取點(diǎn)識(shí)別器的測(cè)試結(jié)果.圖5中杯子是直接從Kinect 拍攝的單視角點(diǎn)云.紅色點(diǎn)是識(shí)別出的可行抓取點(diǎn).雖然測(cè)試杯子尺寸變化比較大,但是仍然能比較好的識(shí)別出可行抓取點(diǎn).以上顯示了所提算法的優(yōu)點(diǎn):(1)訓(xùn)練數(shù)據(jù)集樣例小,不需要非常多的訓(xùn)練數(shù)據(jù)量;(2)抓取點(diǎn)泛化能力強(qiáng).這與SHOT 3D形狀描述子有重要關(guān)系.

5.3 可抓取區(qū)域的識(shí)別

當(dāng)已知物體類(lèi)別時(shí),可以獲知操作物體的相關(guān)經(jīng)驗(yàn)信息. 利用操作經(jīng)驗(yàn)與單手指的抓取規(guī)劃方法,可以求得對(duì)于新物體的抓取姿態(tài)規(guī)劃結(jié)果.圖6是對(duì)新物體的姿態(tài)規(guī)劃結(jié)果.(a)是規(guī)劃的抓取手勢(shì);(b)中綠點(diǎn)是規(guī)劃出的抓取點(diǎn),黑色點(diǎn)是手腕位置,紅色箭頭是手腕的接近方向;(c)是(b)的俯視圖.

圖3 可抓取部位的學(xué)習(xí)Fig.3 Learning the graspable component

圖4 數(shù)據(jù)庫(kù)中杯子的學(xué)習(xí)訓(xùn)練樣例Fig.4 The training samples of a mug

圖5 抓取點(diǎn)識(shí)別Fig.5 Identification of the graspable point

表2是手姿態(tài)規(guī)劃結(jié)果.Mug 1-4分別代表上述的4個(gè)杯子.Tγ是單手指相對(duì)于物體坐標(biāo)系的彎曲程度.θ32是單手指的關(guān)節(jié)角度.手指1和手指2的分開(kāi)角度忽略.抓取規(guī)劃評(píng)價(jià)函數(shù)顯示,這四次規(guī)劃抓取均為穩(wěn)定抓取.

圖6 姿態(tài)規(guī)劃結(jié)果Fig.6 Posture planning results

MugTγ/radθ32/rad10.7921.22020.7511.18930.6781.13440.6281.097

圖7是用7自由度機(jī)械臂和三指BarrettHand抓取杯子的實(shí)驗(yàn).分三個(gè)階段,“準(zhǔn)備抓取”、“抓取物體”與“拿起物體”.

圖7 抓取杯子實(shí)驗(yàn)結(jié)果Fig.7 The experiment of grasping a mug

4 結(jié) 論

本文提出有效的基于經(jīng)驗(yàn)知識(shí)庫(kù)的精細(xì)操作方法.首先對(duì)SHOT 3D描述子進(jìn)行有效改進(jìn),并利用ELM對(duì)物體進(jìn)行分類(lèi)識(shí)別,識(shí)別準(zhǔn)確率達(dá)到97%以上.然后,在物體類(lèi)別的導(dǎo)引下,獲取抓取姿態(tài)規(guī)劃信息,包括物體可行抓取區(qū)域、抓取點(diǎn)、機(jī)械手接近方向與方位信息.最后,利用經(jīng)驗(yàn)知識(shí),實(shí)現(xiàn)實(shí)時(shí)抓取姿態(tài)規(guī)劃.所提姿態(tài)規(guī)劃方法可以實(shí)現(xiàn)對(duì)復(fù)雜形狀物體的抓取規(guī)劃,并且所建數(shù)據(jù)庫(kù)依賴(lài)數(shù)據(jù)樣本少,易于建庫(kù).

[1] LI M, BEKIROGLU Y, KRAGIC D, et al. Learning of grasp adaptation through experience and tactile sensing[C]//IEEE/RSJ international conference on Intelligent Robots and Systems. Washington D.C.:IEEE, 2014:3339-3346.

[2] EL-KHOURY S, SAHBANI A. A new strategy combining empirical and analytical approaches for grasping unknown 3d objects[J]. Robotics and Autonomous Systems, 2010, 58(5), 497-507.

[3] DANG H, ALLEN P K. Grasp adjustment on novel objects using tactile experience from similar local geometry[C]//IEEE/RSJ international conference on Intelligent Robots and Systems. Washington D.C.:IEEE, 2013: 4007-4012.

[4] BOHG J, MORALES A, ASFOUR T, et al. Data-driven grasp synthesis-a survey [J]. IEEE Transaction Robot, 2014, 30(2), 289-309.

[5] HUANG B, EL-KHOURY S, LI M, et al. Learning a real time grasping strategy[C]//IEEE international conference on Robotics and Automation. Washington D.C.:IEEE, 2013: 593-600.

[6] MADRY M, SONG D, KRAGIC D. From object categories to grasp transfer using probabilistic reasoning[C]//IEEE international conference on Robotics and Automation. Washington D.C.:IEEE, 2012: 1716-1723.

[7] NIKANDROVA E, KYRKI V. Category-based task specific grasping[J]. Robotics and Autonomous Systems, 2015, 70: 25-35.

[8] HILLENBRAND U, ROA M. Transferring functional grasps through contact warping and local replanning[C]//IEEE/RSJ international conference on Intelligent Robots and Systems. Washington D.C.:IEEE, 2012: 2963-2970.

[9] GRANA C, DAVOLIO M, CUCCHIARA R. Similarity-based retrieval with MPEG-7 3d descriptors: performance evaluation on the Princeton shape benchmark[J]. Digital Libraries: Research and Development, First international DELOS Conference, 2007: 308-317.

[10] AMOR H, KROEMER O, HILLENBRAND U, et al. Generalization of human grasping for multi-fingered robot hands[C]//IEEE/RSJ Int. Conf. on Intelligent Robots and Systems. Washington D.C.:IEEE, 2012: 2043-2050.

[11] ALDOMA A, MARTON Z C, TOMBARI F, et al. Point cloud library: three-dimensional object recognition and 6dof pose estimation [J]. IEEE Robot. Automat. Mag., 2012, 19(3): 80-91.

[12] ALEXANDRE L A. 3D descriptors for object and category recognition: a comparative evaluation[C]//IEEE/RSJ international conference on Intelligent Robots and Systems. Washington D.C.:IEEE, 2012: 1-6.

[13] ALEXANDRE L A. Set distance functions for 3d object recognition[C]//Pattern Recognition, Image Analysis, Computer Vision, and Applications-18thIberoamerican Congress, 2013: 57-64.

[14] TOMBARI F, SALTI S, Di Stefano L. Unique signatures of histograms for local surface description[C]//Computer Vision-11thEuropean international conference on Computer Vision. Greece: Heraklion crete, 2010.

[15] GOLDFEDER C, CIOCARLIE M, DANG H, et al. The Columbia grasp database[C]. IEEE international conference on Robotics and Automation. Washington D.C.:IEEE, 2009.

[16] BOHG J, JOHNSON-ROBERSON M, LéON B, et al. “Mind the gap-robotic grasping under incomplete observation[C]//IEEE international conference on Robotics and Automation. Washington D.C.:IEEE, 2011: 686-693.

[17] KROEMER O, AMOR H. B, EWERTON M, et al. Point cloud completion using extrusions[C]//IEEE-RAS International Conference on Humanoid Robots. Washington D.C.:IEEE, 2012: 680-685.

[18] LENZ I, LEE H, SAXENA A. Deep learning for detecting robotic grasps[J]. The International Journal of Robotics Research, 2015, 34(4): 705-724.

[19] LIU C, LI W, SUN F, et al. Grasp planning by human experience on a variety of objects with complex geometry[C]//IEEE/RSJ international Conference on Intelligent Robots and Systems.Washington D.C.:IEEE, 2015.

[20] DETRY R, PIATER J. Unsupervised learning of predictive parts for cross-object grasp transfer[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Washington D.C.:IEEE, 2014:.1720-1727.

[21] LIN Y, SUN Y. Robot grasp planning based on demonstrated grasp strategies[J]. The International Journal of Robotics Research, 2014: 1-17.

Space Robot Precise Manipulation Based on Experience Learning

SUN Fuchun, LIU Chunfang

(1.Dept.ComputerScienceandTechnology,TsinghuaUniversity,Beijing100084,China)

It is a challenging problem for space robots autonomously to accomplish precise manipulation on objects with complex geometry. In this paper, an effective method for object classification and graspable components identification is firstly proposed by imitating the generation of human experience. Then, a “single” finger grasp planning method is developed which is able to generalize the grasp to the objects in the same category. Experiments verify the effectiveness of the proposed methods.

precise manipulation; space robot; human experience; grasp planning; object classification

*國(guó)家自然科學(xué)基金資助項(xiàng)目(61210013,61327809).

2015-09-01

V448

A

1674-1579(2015)05-0001-05

10.3969/j.issn.1674-1579.2015.05.001

孫富春(1964—),男,教授,研究方向?yàn)橹悄軝C(jī)器人精細(xì)操作與遙操作、機(jī)器人多模態(tài)信息編碼與融合等;劉春芳(1985—),女,博士研究生,研究方向?yàn)闄C(jī)器視覺(jué)、靈巧手操作規(guī)劃、冗余機(jī)械臂運(yùn)動(dòng)規(guī)劃.

猜你喜歡
類(lèi)別形狀姿態(tài)
論陶瓷刻劃花藝術(shù)類(lèi)別與特征
一起去圖書(shū)館吧
攀爬的姿態(tài)
全新一代宋的新姿態(tài)
火眼金睛
分一半
另一種姿態(tài)
選相紙 打照片
閱讀是最美的姿態(tài)
心的形狀
迁西县| 高雄县| 普兰店市| 温州市| 涿州市| 金堂县| 井陉县| 仪征市| 丰顺县| 务川| 巢湖市| 上思县| 兴义市| 东光县| 广宗县| 汽车| 成安县| 临江市| 稷山县| 北辰区| 石景山区| 崇礼县| 开江县| 洛阳市| 余姚市| 平山县| 韶山市| 斗六市| 信阳市| 普安县| 鄂伦春自治旗| 家居| 宜阳县| 建水县| 高邑县| 泰州市| 贺州市| 田东县| 奉新县| 兰溪市| 瓦房店市|