最新消息: USBMI致力于为网友们分享Windows、安卓、IOS等主流手机系统相关的资讯以及评测、同时提供相关教程、应用、软件下载等服务。

基于图像的移动机器人视觉伺服

IT圈 admin 56浏览 0评论

2024年6月6日发(作者:诸秀曼)

第8卷第5期 

信 息 与 电 子 工 程 

INFORMATION AND ELECTRONIC ENGINEERING 

Vo1.8.No.5 

0ct..2010 

2010年10月 

文章编号:1672-2892(2010)05—0598.05 

基于图像的移动机器人视觉伺服 

杨少平,孔庆生,陈雄 

(复旦大学电子工程系,上海200433) 

摘 要:为了更简便地将基于图像的视觉伺服运用于移动机器人,避免采用近似线性输入输 

出反馈控制模型中近似与假设的情况,提出了3种使用极线几何与三角几何相结合的方法,此类 

方法不需要预先知道三维场景的结构知识。实验仿真结果证明了该方法的有效性。 

关键词:基于图像的视觉伺服;移动机器人;极线几何 

中图分类号:TN9l1.73 文献标识码:A 

Image—based visual servoing for mobile robots 

YANG Shao-ping,KONG Qing-sheng,CHEN Xiong 

(Department of Electronics,Fudan University,Shanghai 200433,China) 

Abstract:To achieve Image-Based Visual Servoing(IBVS)for mobiIe robots ll:lore easily,and avoid 

using an approximate input—output linear feedback which has many assumptions,three methods combining 

epipolar geometry with triangle geometry were proposed.The proposed approaches did not need any 

knowledge of 3-D scene geometry.Simulation results validate the effectiveness of the proposed approach. 

Key words:Image-Based Visual Servoing;mobile robot;epipolar geometry 

20世纪60年代,由于机器人和计算机技术的发展,人们开始研究具有视觉功能的机器人。在过去几年,视 

觉技术因用于控制移动机器人而被广泛研究。基于视觉的伺服策略是采用相机所观察的特征来控制机器人移动的 

种灵活有效的方法。视觉伺服主要分为3种:基于位置的视觉伺J] ̄(Position.Based Visual Servo,PBVS)¨ J、 

基于图像的视觉伺H ̄(IBVS)[3-4】和混合控制视觉伺服 J。早期的研究主要是基于位置的视觉伺服研究,近年来主 

要是IBVS研究。以往的研究多采用近似线性输入输出反馈控制模型【4J,但此模型需要多处近似处理,为此本文 

提出了运用极线几何与三角几何相结合的方法,有效克服了过多近似的情况,更简便地实现了机器人由初始位置 

到达理想位置的目标。本文提出了IBVS方法使移动机器人到达目标位置,这是通过针孔相机预先获得l幅目标 

图像来实现的。不同于PBVS,在IBVS中,控制目标与控制法都是直接在图像特征参数空间表示L7j。1幅图像特 

征参数是1个实值量,它能够由1个或多个图像特征(点、线、运动等)求得。因此,IBVS不需要预先获得被观 

察场景的三维结构知识。此外,IBVS对机器人模型的不确定性和干扰比基于位置的视觉伺服的鲁棒性更强 。 

1 针孔摄像机极线几何知识 

双目立体视觉是基于视差原理,由多幅图像获取物体三维几何信息的方法。在机器视觉系统中,双目立体视 

觉~般由双摄像机从不同角度同时获取周围景物的两幅数字图像,或由单摄像机在不同时刻从不同角度获取周围 

景物的2幅数字图像,并基于视差原理即可恢复出物体三维几何信息,重建周围景物的三维形状与位置 。 

极线几何讨论的是2个相机图像平面的关系,它不仅在双目立体视觉中2幅图像的对应点匹配有着重要作用, 

而且在三维重建和运动分析中也具有广泛的应用。 

在基于图像的视觉伺服中将利用单相机在不同时刻从不同角度所获取的图像,并由这些图像所形成的极线几 

何的特征来引导机器人运动。以下将介绍相机模型与多视角几何的基础知识,具体细节可参考文献[10-11】。 

参考图1,0。为相机中心,{0。, 。 。,: )为相应的相机坐标,{0 , 

P=K[R f 

收稿日期:2009.11.20;修回日期:2010.03-08 

,z }为世界坐标,{0 ,U,.1,)为相机的图像 

(1) 

坐标。世界坐标下的空间点P与其在图像平面的投影P的关系可由式(1)表示: 

第5期 杨少平等:基于图像的移动机器人视觉伺服 599 

式中 和t为相机外部参数(分别为关于世界坐标与相机坐标之间的旋 

转矩阵与平移矩阵)。 为相机内部参数矩阵: 

fkvcot “0 

K= o 

sin 

0 0 1 

式中:厂表示焦距;k 和k 表示在图像坐标中单位距离的像素数量; 

是图像轴 与v之间的夹角;(/dO,v。)为图像坐标中心点的位置(单位像素)。 

假设相机内部参数经过1个预校准阶段。不失一般性,假设 

:7c/2,U0=v0=0,k =kv=l,则矩阵 可表示为: 

Fig.1 Pinhole cBnlera projection model 

图1三维点在 ̄t- ̄L相机中的射影模型 

] 

㈣ 

/, 

/ 

’ 

\、 

\ 

, 

t、 

考虑2个相异的相机结构{D。。 。 。 ,z。 )与{0。d,X。d,Y。d, 

Zcd}分别为对同一三维点P的实际视角与目标视角。不失 

般性,假设目标视角与世界坐标一致({D d,X d 。d, d}; 

{D , ,z ))。 

图2中,线段O 。O。d(基线)与2幅图像平面的2个交 

点ea-[e。 e 1】 和ed=【Pd ed l】 称作极点。极点由对应 

着基线的运动无关。2个平面的相对方向能够由极点处得 

面与图像平面的交线称为极线,即图像平面中经过ea,p 

两点的直线和经过ed 两点的直线。 

(足|) 

Fig.2 Basic epipolar geometry setup defined by two different views 

图2相机两视角构成的极线几何模型 

算而得到。一种通常的方法是使用基本矩阵,它是极线几何中的一个重要工具。 

察环境的三维结构知识 挖 。极点ea,ed可由下式分别得出: 

Fea=0 F ed=0 

【f] RK- ,其中[f] 为对应 

平移向量t的3 ̄3斜对称矩阵。考虑至少8个一般对应点,F能被计算出且只相差1个常数因子,但不需要所观 

(4) 

2视觉伺服问题 

在基于图像的移动机器人视觉伺服问题中,需要预先在目标 

位置获取一组图像数据,然后与初始位置获取的图像进行匹配, 

从而找出一组相关特征点,在此假设图像已经匹配好,特征点已 

找到,本文提出的方法在于运用已找到的特征点,使用极线几何 

与三角几何的知识控制机器人运动,使之到达目标位置。 

2.1直线型视觉伺服 

在直线形视觉伺服问题中,采用3步可以实现,图3即机器 

人运动示意图: 

1)在初始位置旋转机器人,使机器人指向目标位置。由一 

Fig.3 Visual servoing schematic diagram of linear motion 

组特征点在相机平面的投影即可求得基本矩阵 ,再由式(4)可求 

图3直线形视觉伺服示意图 

得相机在初始位置与目标位置的极点。从图2极线几何模型中可知,相机旋转角度 = an (厂为焦距,e 为 

相机在实际位置时极点在图像平面U轴上的值)。 

2)朝目标位置移动,当极平面中角/Q PDcd为零时,机器人移动到了目标位置。由图2极线几何模型可知: 

600 信息与电子工程 

pao ̄ : 2 2 2 

第8卷 

Oc。 厩 

Paea 、√/ +(p 十 一J1evi—J‰J) 

由此 。c :arccos 

同理Z:PdO ̄ed=arccos 

所以ZOeaPOed=n-LPaO ̄ ̄

e 一 dOeded,Pau,P 分别为空间点P的实际视角投影点Pa在图像平面 和v轴上的 

坐标,Pd d 分别为空间点P的目标视角投影点Pd在图像平面“和v轴上的坐标。 

c)机器人旋转角度OF=arctan 

2.2下三角形视觉伺服 

c厂为焦距,e 为相机在目标位置时极点在图像平面“轴上的值)

完成任务。 

在下三角形视觉伺服问题中,可以采用3步来解 

决,图4即移动机器人在此情况下的运动示意图: 

1)旋转机器人,使机器人在初始位置与目标位置 

的极点坐标相同,此时机器人在初始位置与目标位置有 

相同的方向。 

…删。 

/U 

2)首先使机器人旋转9O。,然后移动机器人,使机 

器人在实际位置的极点坐标为无穷大,而目标位置的极 

点值为零。 

3)首先使机器人旋转9O。,然后用直线形相同的方 

法移动机器人,使 。c。PDcd为零,此时机器人到达目标 

位置。 

Fig.4 Visual servoing schematic diagram of lower-triangular motion 

2.3上三角形视觉伺服 

图4下三角形视觉伺服示意图 

在上三角视觉伺服问题中,也同样采用三步法使移动 

机器人到达目标位置,图5即为上三角视觉伺服移动机器 

人运动示意图: 

1)旋转机器人使机器人在初始位置与目标位置的极 

点相同,此时机器人在初始位置与目标位置有相同方向。 

2)移动机器人使相机在实际位置与目标位置的极点 

均为无穷大,并使机器人旋转9O。,从而使机器人朝向目 

标位置。 

3)同直线形方法,使角 。JPOcd为零,并使机器人 

Fig.5 Visual servoing chematsic diagram ofupper-triangular motion 

旋转90o,此时机器人到达目标位置。 

图5上三角形视觉伺服示意图 

3 实验仿真 

使用极线几何工具箱(Epipolar Geometry Toolbox) ̄E Matlab中实现机器人视觉伺服控制算法的仿真。图6为 

直线形视觉伺服的仿真结果,图7为下三角形视觉伺服仿真结果,图8为上三角形视觉伺服仿真结果。 

4 结论 

文中提出3种方法均能解决基于图像的移动机器人视觉伺服问题,这3种方法的优点在于无需像运用近似线 

性输入输出控制模型那样需要许多近似的假设㈣。近似线性输人输出控制模型中,当对初始位置与目标位置间距 

离的估计差别很大时将产生错误的运动轨迹,而本文的方法因为不需要考虑距离的估计,故没有此缺点。 

第5期 杨少平等:基于图像 的移动机器人视觉伺服 601 

15 

1O 

5 

要0 

5 

l0 

15 

20 

(a)plane trajectory oflinear motion Co)3-D trajectory oflinear motion 

Fig.6 Visual servoing simulation of linear motion 

图6直线形视觉伺服仿真结果 

l5 

features量 

1O 

主 } 

: 

妻 

5 

宣: |_: 

一 

;== 

2O 

dposit 

要0 

l0 

‘ 

, 

5 

= :; 一—髓 

0 

, 

1O 

, 

蒌 

10 

nU tialp0‘ 

l5 

:雾

; 譬 

基器 

.30 

-20 

i地 f罨  :

r… 

F t 

吾释,. 

、 

固 

30 -25 —20 一l5 -10 .5 0 5 10 15 

x/m 

.2O 

(a)plane trajectory oflower-uiangular motion Co)3-D trajectory oflower-triangular motion 

Fig.7 Visual servoing simulation oflower-tirangular motion 

图7下三角形视觉伺服仿真结果 

20 

l5 

10 

. 

越 

5 

: 0 麓 强 esiI=ed positic 

要0 

I。带‘ 

5 

誊。 k 

l0 

15 

20 

25 -20 -15 .10 .5 0 

0 

x/m 

(a)plnae trajectory ofupper-trinagular motion 

(b)3-Dtrajectoryofupper-trinagularmotion 

Fig.8 Visual servoing simulation 

of upper-triangulra motion 

图8上三角形视觉伺服仿真结果 

r;r;r【rL 

l 

1{

2 3 4 

1j

5 6 

 

7 8 

1J 1J 

6O2 

参考文献: 

信息与电子工程 第8卷 

Lippiello V,Siciliano B.Position—Based Visual Servoing in Industrial Muhirobot Cells Using a Hybrid Camera Configuration[J]. 

IEEE Trans.Robot,2007,23(1):73-86. 

Shademan A,Shariif F J.Sensitivity Analysis of EKF and Iterated EKF Pose Estimation orf Position-Based Visual Servoing[C]// 

Proc.IEEE Conf.on Control Applications.Toronto:[s.n.],2005:755—760. 

Marionini G L,Alunno E,Piazzi J.Epipole—based Visual Servoing with Central Catadioptric Camera[C]//Proc.IEEE Int.Conf. 

on Robotics and Automation.Barcelona:[s.n.],2005:3515-3521. 

Mariottini G L,Oriolo G,Prattichizzo D.Image-based visual servoing for nonholonomic mobile robots using epipolar geometry[J]. 

IEEE Trans.Robot,2007,23(1):87-100. 

Malis E,Chaumette F.2.1/2.D visual servoing with respect to unknown obiects through a new estimation scheme of camera 

displacement[J].Int.J.Comput.Vis.,2000,37(1):79—87. 

Abdelkader H H,Mezouar Y,Andreff N,et a1.2 1/2 D visual servoing with central catadioptric cameras[C]//IEEE/RSJ International 

Conference.LASMEA,Aubiere,France:[s.n.】,2005:3572—3577. 

Hutchinson S A,Hager G D,Corke P I.A tutorial on visual servo control[J1.IEEE Trans.Robot.Autom.,1 996,1 2(5):65 1-670. 

Espiau B.Effect of camera calibration errors on visual servoing in robotics[C]//Proc.3rd Int.Symp.Exp.Robot.London, 

UK:Springer-Verlag.1 993:1 82—1 92. 

9 

1O 

张广军.机器视觉【M].北京:科学出版社,2005. 

Hartley R,Zisserman A.Multiple View Geometry in Computer Vision[M].Cambridge,UK:Cambridge Univ.Press,2000. 

Ma Y,Soatto S,Ko seck ̄i J,et a1.An Invitation to 3-D Vision:From Images to Geometric Models[M].New York:Springer,2003. 

11 

12 

Hartley R.In defence of the 8-point algorithm[C]//Proc.IEEE Int.Conf.Comput.Vis..Cambridge,MA,USA:[s.n.】,1995: 

1064-】070. 

作者简介: 

杨s_l ̄tz(1984一),男,江西省丰城市人,在读 

硕士研究生,研究方向为基于图像的视觉伺服、 

机器人导航.email:plahaohao@yahoo.corn.cn. 

孔庆生(196l一),男,上海市人,副教授,硕 

士生导师,研究方向为电子系统设计、过程控制、 

机器人导航等. 

陈 ̄(1964一),男,上海市人,副教授,硕 

士生导师,研究方向为智能控制理论与系统、多 

机器人系统、移动机器人控制与运动规划、传感 

器网络等. 

2024年6月6日发(作者:诸秀曼)

第8卷第5期 

信 息 与 电 子 工 程 

INFORMATION AND ELECTRONIC ENGINEERING 

Vo1.8.No.5 

0ct..2010 

2010年10月 

文章编号:1672-2892(2010)05—0598.05 

基于图像的移动机器人视觉伺服 

杨少平,孔庆生,陈雄 

(复旦大学电子工程系,上海200433) 

摘 要:为了更简便地将基于图像的视觉伺服运用于移动机器人,避免采用近似线性输入输 

出反馈控制模型中近似与假设的情况,提出了3种使用极线几何与三角几何相结合的方法,此类 

方法不需要预先知道三维场景的结构知识。实验仿真结果证明了该方法的有效性。 

关键词:基于图像的视觉伺服;移动机器人;极线几何 

中图分类号:TN9l1.73 文献标识码:A 

Image—based visual servoing for mobile robots 

YANG Shao-ping,KONG Qing-sheng,CHEN Xiong 

(Department of Electronics,Fudan University,Shanghai 200433,China) 

Abstract:To achieve Image-Based Visual Servoing(IBVS)for mobiIe robots ll:lore easily,and avoid 

using an approximate input—output linear feedback which has many assumptions,three methods combining 

epipolar geometry with triangle geometry were proposed.The proposed approaches did not need any 

knowledge of 3-D scene geometry.Simulation results validate the effectiveness of the proposed approach. 

Key words:Image-Based Visual Servoing;mobile robot;epipolar geometry 

20世纪60年代,由于机器人和计算机技术的发展,人们开始研究具有视觉功能的机器人。在过去几年,视 

觉技术因用于控制移动机器人而被广泛研究。基于视觉的伺服策略是采用相机所观察的特征来控制机器人移动的 

种灵活有效的方法。视觉伺服主要分为3种:基于位置的视觉伺J] ̄(Position.Based Visual Servo,PBVS)¨ J、 

基于图像的视觉伺H ̄(IBVS)[3-4】和混合控制视觉伺服 J。早期的研究主要是基于位置的视觉伺服研究,近年来主 

要是IBVS研究。以往的研究多采用近似线性输入输出反馈控制模型【4J,但此模型需要多处近似处理,为此本文 

提出了运用极线几何与三角几何相结合的方法,有效克服了过多近似的情况,更简便地实现了机器人由初始位置 

到达理想位置的目标。本文提出了IBVS方法使移动机器人到达目标位置,这是通过针孔相机预先获得l幅目标 

图像来实现的。不同于PBVS,在IBVS中,控制目标与控制法都是直接在图像特征参数空间表示L7j。1幅图像特 

征参数是1个实值量,它能够由1个或多个图像特征(点、线、运动等)求得。因此,IBVS不需要预先获得被观 

察场景的三维结构知识。此外,IBVS对机器人模型的不确定性和干扰比基于位置的视觉伺服的鲁棒性更强 。 

1 针孔摄像机极线几何知识 

双目立体视觉是基于视差原理,由多幅图像获取物体三维几何信息的方法。在机器视觉系统中,双目立体视 

觉~般由双摄像机从不同角度同时获取周围景物的两幅数字图像,或由单摄像机在不同时刻从不同角度获取周围 

景物的2幅数字图像,并基于视差原理即可恢复出物体三维几何信息,重建周围景物的三维形状与位置 。 

极线几何讨论的是2个相机图像平面的关系,它不仅在双目立体视觉中2幅图像的对应点匹配有着重要作用, 

而且在三维重建和运动分析中也具有广泛的应用。 

在基于图像的视觉伺服中将利用单相机在不同时刻从不同角度所获取的图像,并由这些图像所形成的极线几 

何的特征来引导机器人运动。以下将介绍相机模型与多视角几何的基础知识,具体细节可参考文献[10-11】。 

参考图1,0。为相机中心,{0。, 。 。,: )为相应的相机坐标,{0 , 

P=K[R f 

收稿日期:2009.11.20;修回日期:2010.03-08 

,z }为世界坐标,{0 ,U,.1,)为相机的图像 

(1) 

坐标。世界坐标下的空间点P与其在图像平面的投影P的关系可由式(1)表示: 

第5期 杨少平等:基于图像的移动机器人视觉伺服 599 

式中 和t为相机外部参数(分别为关于世界坐标与相机坐标之间的旋 

转矩阵与平移矩阵)。 为相机内部参数矩阵: 

fkvcot “0 

K= o 

sin 

0 0 1 

式中:厂表示焦距;k 和k 表示在图像坐标中单位距离的像素数量; 

是图像轴 与v之间的夹角;(/dO,v。)为图像坐标中心点的位置(单位像素)。 

假设相机内部参数经过1个预校准阶段。不失一般性,假设 

:7c/2,U0=v0=0,k =kv=l,则矩阵 可表示为: 

Fig.1 Pinhole cBnlera projection model 

图1三维点在 ̄t- ̄L相机中的射影模型 

] 

㈣ 

/, 

/ 

’ 

\、 

\ 

, 

t、 

考虑2个相异的相机结构{D。。 。 。 ,z。 )与{0。d,X。d,Y。d, 

Zcd}分别为对同一三维点P的实际视角与目标视角。不失 

般性,假设目标视角与世界坐标一致({D d,X d 。d, d}; 

{D , ,z ))。 

图2中,线段O 。O。d(基线)与2幅图像平面的2个交 

点ea-[e。 e 1】 和ed=【Pd ed l】 称作极点。极点由对应 

着基线的运动无关。2个平面的相对方向能够由极点处得 

面与图像平面的交线称为极线,即图像平面中经过ea,p 

两点的直线和经过ed 两点的直线。 

(足|) 

Fig.2 Basic epipolar geometry setup defined by two different views 

图2相机两视角构成的极线几何模型 

算而得到。一种通常的方法是使用基本矩阵,它是极线几何中的一个重要工具。 

察环境的三维结构知识 挖 。极点ea,ed可由下式分别得出: 

Fea=0 F ed=0 

【f] RK- ,其中[f] 为对应 

平移向量t的3 ̄3斜对称矩阵。考虑至少8个一般对应点,F能被计算出且只相差1个常数因子,但不需要所观 

(4) 

2视觉伺服问题 

在基于图像的移动机器人视觉伺服问题中,需要预先在目标 

位置获取一组图像数据,然后与初始位置获取的图像进行匹配, 

从而找出一组相关特征点,在此假设图像已经匹配好,特征点已 

找到,本文提出的方法在于运用已找到的特征点,使用极线几何 

与三角几何的知识控制机器人运动,使之到达目标位置。 

2.1直线型视觉伺服 

在直线形视觉伺服问题中,采用3步可以实现,图3即机器 

人运动示意图: 

1)在初始位置旋转机器人,使机器人指向目标位置。由一 

Fig.3 Visual servoing schematic diagram of linear motion 

组特征点在相机平面的投影即可求得基本矩阵 ,再由式(4)可求 

图3直线形视觉伺服示意图 

得相机在初始位置与目标位置的极点。从图2极线几何模型中可知,相机旋转角度 = an (厂为焦距,e 为 

相机在实际位置时极点在图像平面U轴上的值)。 

2)朝目标位置移动,当极平面中角/Q PDcd为零时,机器人移动到了目标位置。由图2极线几何模型可知: 

600 信息与电子工程 

pao ̄ : 2 2 2 

第8卷 

Oc。 厩 

Paea 、√/ +(p 十 一J1evi—J‰J) 

由此 。c :arccos 

同理Z:PdO ̄ed=arccos 

所以ZOeaPOed=n-LPaO ̄ ̄

e 一 dOeded,Pau,P 分别为空间点P的实际视角投影点Pa在图像平面 和v轴上的 

坐标,Pd d 分别为空间点P的目标视角投影点Pd在图像平面“和v轴上的坐标。 

c)机器人旋转角度OF=arctan 

2.2下三角形视觉伺服 

c厂为焦距,e 为相机在目标位置时极点在图像平面“轴上的值)

完成任务。 

在下三角形视觉伺服问题中,可以采用3步来解 

决,图4即移动机器人在此情况下的运动示意图: 

1)旋转机器人,使机器人在初始位置与目标位置 

的极点坐标相同,此时机器人在初始位置与目标位置有 

相同的方向。 

…删。 

/U 

2)首先使机器人旋转9O。,然后移动机器人,使机 

器人在实际位置的极点坐标为无穷大,而目标位置的极 

点值为零。 

3)首先使机器人旋转9O。,然后用直线形相同的方 

法移动机器人,使 。c。PDcd为零,此时机器人到达目标 

位置。 

Fig.4 Visual servoing schematic diagram of lower-triangular motion 

2.3上三角形视觉伺服 

图4下三角形视觉伺服示意图 

在上三角视觉伺服问题中,也同样采用三步法使移动 

机器人到达目标位置,图5即为上三角视觉伺服移动机器 

人运动示意图: 

1)旋转机器人使机器人在初始位置与目标位置的极 

点相同,此时机器人在初始位置与目标位置有相同方向。 

2)移动机器人使相机在实际位置与目标位置的极点 

均为无穷大,并使机器人旋转9O。,从而使机器人朝向目 

标位置。 

3)同直线形方法,使角 。JPOcd为零,并使机器人 

Fig.5 Visual servoing chematsic diagram ofupper-triangular motion 

旋转90o,此时机器人到达目标位置。 

图5上三角形视觉伺服示意图 

3 实验仿真 

使用极线几何工具箱(Epipolar Geometry Toolbox) ̄E Matlab中实现机器人视觉伺服控制算法的仿真。图6为 

直线形视觉伺服的仿真结果,图7为下三角形视觉伺服仿真结果,图8为上三角形视觉伺服仿真结果。 

4 结论 

文中提出3种方法均能解决基于图像的移动机器人视觉伺服问题,这3种方法的优点在于无需像运用近似线 

性输入输出控制模型那样需要许多近似的假设㈣。近似线性输人输出控制模型中,当对初始位置与目标位置间距 

离的估计差别很大时将产生错误的运动轨迹,而本文的方法因为不需要考虑距离的估计,故没有此缺点。 

第5期 杨少平等:基于图像 的移动机器人视觉伺服 601 

15 

1O 

5 

要0 

5 

l0 

15 

20 

(a)plane trajectory oflinear motion Co)3-D trajectory oflinear motion 

Fig.6 Visual servoing simulation of linear motion 

图6直线形视觉伺服仿真结果 

l5 

features量 

1O 

主 } 

: 

妻 

5 

宣: |_: 

一 

;== 

2O 

dposit 

要0 

l0 

‘ 

, 

5 

= :; 一—髓 

0 

, 

1O 

, 

蒌 

10 

nU tialp0‘ 

l5 

:雾

; 譬 

基器 

.30 

-20 

i地 f罨  :

r… 

F t 

吾释,. 

、 

固 

30 -25 —20 一l5 -10 .5 0 5 10 15 

x/m 

.2O 

(a)plane trajectory oflower-uiangular motion Co)3-D trajectory oflower-triangular motion 

Fig.7 Visual servoing simulation oflower-tirangular motion 

图7下三角形视觉伺服仿真结果 

20 

l5 

10 

. 

越 

5 

: 0 麓 强 esiI=ed positic 

要0 

I。带‘ 

5 

誊。 k 

l0 

15 

20 

25 -20 -15 .10 .5 0 

0 

x/m 

(a)plnae trajectory ofupper-trinagular motion 

(b)3-Dtrajectoryofupper-trinagularmotion 

Fig.8 Visual servoing simulation 

of upper-triangulra motion 

图8上三角形视觉伺服仿真结果 

r;r;r【rL 

l 

1{

2 3 4 

1j

5 6 

 

7 8 

1J 1J 

6O2 

参考文献: 

信息与电子工程 第8卷 

Lippiello V,Siciliano B.Position—Based Visual Servoing in Industrial Muhirobot Cells Using a Hybrid Camera Configuration[J]. 

IEEE Trans.Robot,2007,23(1):73-86. 

Shademan A,Shariif F J.Sensitivity Analysis of EKF and Iterated EKF Pose Estimation orf Position-Based Visual Servoing[C]// 

Proc.IEEE Conf.on Control Applications.Toronto:[s.n.],2005:755—760. 

Marionini G L,Alunno E,Piazzi J.Epipole—based Visual Servoing with Central Catadioptric Camera[C]//Proc.IEEE Int.Conf. 

on Robotics and Automation.Barcelona:[s.n.],2005:3515-3521. 

Mariottini G L,Oriolo G,Prattichizzo D.Image-based visual servoing for nonholonomic mobile robots using epipolar geometry[J]. 

IEEE Trans.Robot,2007,23(1):87-100. 

Malis E,Chaumette F.2.1/2.D visual servoing with respect to unknown obiects through a new estimation scheme of camera 

displacement[J].Int.J.Comput.Vis.,2000,37(1):79—87. 

Abdelkader H H,Mezouar Y,Andreff N,et a1.2 1/2 D visual servoing with central catadioptric cameras[C]//IEEE/RSJ International 

Conference.LASMEA,Aubiere,France:[s.n.】,2005:3572—3577. 

Hutchinson S A,Hager G D,Corke P I.A tutorial on visual servo control[J1.IEEE Trans.Robot.Autom.,1 996,1 2(5):65 1-670. 

Espiau B.Effect of camera calibration errors on visual servoing in robotics[C]//Proc.3rd Int.Symp.Exp.Robot.London, 

UK:Springer-Verlag.1 993:1 82—1 92. 

9 

1O 

张广军.机器视觉【M].北京:科学出版社,2005. 

Hartley R,Zisserman A.Multiple View Geometry in Computer Vision[M].Cambridge,UK:Cambridge Univ.Press,2000. 

Ma Y,Soatto S,Ko seck ̄i J,et a1.An Invitation to 3-D Vision:From Images to Geometric Models[M].New York:Springer,2003. 

11 

12 

Hartley R.In defence of the 8-point algorithm[C]//Proc.IEEE Int.Conf.Comput.Vis..Cambridge,MA,USA:[s.n.】,1995: 

1064-】070. 

作者简介: 

杨s_l ̄tz(1984一),男,江西省丰城市人,在读 

硕士研究生,研究方向为基于图像的视觉伺服、 

机器人导航.email:plahaohao@yahoo.corn.cn. 

孔庆生(196l一),男,上海市人,副教授,硕 

士生导师,研究方向为电子系统设计、过程控制、 

机器人导航等. 

陈 ̄(1964一),男,上海市人,副教授,硕 

士生导师,研究方向为智能控制理论与系统、多 

机器人系统、移动机器人控制与运动规划、传感 

器网络等. 

发布评论

评论列表 (0)

  1. 暂无评论