基于光学小波变换的机器人视觉系统及其实验研究

基于光学小波变换的机器人视觉系统及其实验研究

崔庆华[1]2002年在《基于光学小波变换的机器人视觉系统及其实验研究》文中进行了进一步梳理机器人视觉技术是80年代发展起来的一门新兴技术,是当今国际研究的前沿课题。近几年,机器人视觉技术取得了一定的进展,并出现了一些成功的机器人视觉系统,但是由于它是一门交叉性很强的学科,研究工作碰到了相当多的问题,总的来说直到今天还没有一个成功的通用系统出现,理论体系还处于一个百花齐放、百家争鸣的孕育期。机器人视觉系统有其自身的局限性,实现起来还存在很多问题。因为机器人视觉技术的特点之一就是数据量庞大,处理这些数据需要很长的时间,这样,处理速度就成为机器人视觉系统从实用角度急待解决的一个瓶颈问题。目前解决的方法主要是用专用的DSP芯片,但其通用性不高,设计成本昂贵。因此许多科技人员开始从光学信息处理技术寻求提高机器人视觉处理速度的途径。 光学信息处理是近几年来发展起来的一门新兴学科,指的是用光学方法实现对输入信息的各种变换或处理。与其它形态的信号处理相比,光学信息处理系统具有处理速度快、容量大、特别适合处理图象等优势,其中研究的前沿领域就包括光学小波变换。小波变换(Wavelet Transform)是80年代后期发展起来的应用数学分支,它起源于信号分析领域,被认为是近十几年来在数学工具和方法上的重大突破。光学小波变换(Optical Wavelet Transform)是基于小波变换的基本理论利用光学技术与方法对信号与图象的小波变换处理。由于光学小波变换同时具有光学信息处理系统高度并行、大容量的特点和小波变换特别适合于处理图象信号的特点,因此目前它已广泛应用于图象特征提取、目标探测与识别等领域。 正是基于光学小波变换在图象处理领域的巨大优势,本文创造性的将其引入机器人视觉,并设计出一套基于光学小波变换的机器人视觉系统,同时对光学小波变换滤波器的设计进行了深入研究,并通过编程的方法实现了小波滤波器的构造,克服了目前光学小波变换灵活性不高,可操作性不强等缺陷,同时对二维小波变换对于图象边缘提取的有时进行了理论分析。本文设计出用于半导体激光器的扩束准直机构,并成功获得实验所需的准直相干光,本文还成功完成了机器人视觉系统目标读取部分的实验。进一步从实验角度证明了该机器人视觉系统的可行性。

佚名[2]2010年在《自动化技术、计算机技术》文中认为TP12010031967Flash媒体服务器的优化部署/唐力,槐寅,陈震(清华大学自动化系)//清华大学学报(自然科学版).―2010,50(1).―5~8.越来越多的新型万维网(Web)应用开始提供在线音视频交流功能,而有效的Flash媒体服务器部署方案是提高服务质量的基础。该文给出了媒体服务器优化部署问题的数学模型,并证明即使用户需求和网络性能信息

柯丰恺[3]2016年在《面向机器人的多目视觉检测算法研究及系统实现》文中提出并联机器人有着刚度大,累积误差小,结构简单可靠,负载大,控制容易,执行速度快等多个优点。现如今,已有将单个摄像机添加进并联机器人当中,但仅能做简单平面形状物体的定位、分拣等功能,无法达到柔性化生产的目的。本文以并联机器人作为机器人的研究对象,提出采用多目视觉的方法,使其具有感知外部叁维环境的能力,旨在于提高多目视觉系统的标定效率,提高并联机器人的目标检测精度以及目标检测能力。如何使多目视觉系统具有感知目标叁维坐标以及如何将该叁维坐标转化为并联机器人可执行的相应参数,需要解决的问题有角点检测问题,参数估计问题以及目标检测等问题。本文对此进行了深入研究,在详细地分析传统方法的利弊的基础上,提出了相应的解决方案,使并联机器人在多目视觉系统的引导下,完成复杂环境下对目标的高精度检测,并实现了面向并联机器人的多目视觉检测系统。对并联机器人的运动学以及整体结构进行了扼要阐述,介绍了摄像机的成像模型和多目视觉检测技术,并根据并联机器人的机械结构特点,设计出本文面向并联机器人的多目视觉检测系统的理论模型。角点检测是为了给计算多目视觉检测系统内外部参数提供原始数据。为了提高单个摄像机标定过程中角点坐标提取的效率与精度,对摄像机标定时使用圆形图案与棋盘格图案遇到的问题进行了详细的分析与总结。对于圆形图案标定板,本文提出并推导了椭圆投影误差模型,通过仿真实验数据详细分析和总结了影响标定误差的各个因素。对于棋盘格图案标定板,在分析了传统开源代码Matlab繁琐的人工操作以及OpenCV无法应用于复杂环境等缺点的基础上,根据黑白方块角点处的灰度值分布特点,本文提出了一种改进的对称方差方法的亚像素角点检测算法,实验结果证明了该算法的有效性。参数估计是对多目视觉检测系统的摄像机矩阵、旋转矩阵以及平移向量等参数的计算。只有获得了检测系统内外部参数之后才能进行目标的叁维坐标计算与转换,使并联机器人能识别目标。相比于本文所设计的系统的内部参数来说,外部参数所涉及到的旋转矩阵最优化问题更为复杂。为了更精确地计算出系统中的旋转矩阵,本文根据旋转矩阵估计问题的特点,提出了一种基于凸松弛的混合全局最优化算法,并将该算法应用于解决多目视觉系统标定中摄像机两两之间存在的共轭旋转矩阵估计问题和摄像机与并联机器人之间存在的单旋转矩阵估计问题。该算法综合了交迭算法与凸松弛算法各自的优点,实验结果表明,该算法快速准确地收敛于旋转矩阵估计问题的全局最优解。由于并联机器人的应用范围主要在工业生产分拣与定位当中,工业产品的颜色大多没有区分度,纹理通常也不明显,光照也受现场情况的影响,只有形状才是表征物体最本质的特征。为了提高并联机器人对于各种形状目标检测能力,在详细分析了传统目标检测算法优缺点的基础上,本文根据目标的中轴线或骨架所提供的信息,提出了一种基于二维形状椭圆建模的目标快速检测算法。为了对各种二维的状的目标进行自适应椭圆建模,本文加入了形状复杂度以及信息准则等定义用于建模。由于目标物体在不同角度的成像过程中会发生投影变化,故在形状复杂度的定义里加入了不变矩的一项。由于图像数据为离散二维数据,针对Hu不变矩在离散情况下,尺度不变特性失效的问题,本文提出了改进的离散Hu不变矩。针对二维形状椭圆建模在目标检测过程中计算量大、耗费存储空间等问题,引入几何不变量——形状角,从总体上对多个目标的轮廓进行初步筛选,再利用椭圆建模所提供的模型特征信息进行精确匹配。由实验证明,在目标物体含有噪声时,发生遮挡时,或者发生旋转、平移、尺度变换时均能准确快速检测。最后,结合上述研究内容及算法,研发了面向并联机器人的多目视觉检测系统,并对该系统的性能进行了实验,实验结果验证了本文提出算法的可行性与有效性。

宋宇[4]2007年在《面向微操作的微小型机器人视觉伺服技术研究》文中研究表明面向微操作的微小型机器人作为典型的微机电系统,具有体积小、运动灵活、能够进入一般机械系统无法进入的狭窄作业空间进行检测和维护等特点而在微操作领域有着广泛的应用前景,已成为国内外诸多公司、研究机构、大学的一个新的研究热点,其发展目标是构建以微小型机器人为基础的自动化微装配作业桌面工厂。在国家“863”计划MEMS重大专项资助和大量调研工作的基础上,本文以为面向微操作的微小型机器人设计智能化的实时视觉伺服系统为主线、以利用视觉来指导微小型机器人自主进行微操作作业为目的,展开课题研究。在分析典型微操作系统组成的基础上,建立了基于微小型机器人的微操作系统。首先分析了微操作系统的各个硬件组成部分,包括宏/微双重驱动微小机器人及外部全局—显微形式的两级视觉传感器系统与一维微力觉传感器系统。然后对微操作系统的控制结构进行了简要描述。全局视觉系统监控机器人运动空间、实时提取机器人位姿参数并引导机器人在微操作系统工作平台上进行快速、大范围运动。针对微小型机器人的全局视觉伺服控制问题,提出了基于标记的机器人位姿参数实时测量方法;设计了基于图像的动态Look-and-Move形式的全局视觉伺服控制器和基于运动检测的微夹持器末端搜索策略来引导机器人快速地运动到微操作区域附近并使其微夹持器末端准确地进入光学显微镜的视场范围,为进一步利用更高测量分辨力的显微视觉信息来指导机器人完成微操作任务做好准备。显微视觉系统的主要作用是分析微操作场景图像后测量微操作工具和微操作对象的相对位置关系,进而控制微操作工具向操作目标运动。自动聚焦、显微图像分割、显微图像跟踪和显微图像伺服是实现这一目的几个关键问题。为实现自动聚焦,构造了基于SUSAN算子的图像清晰度评价函数,设计了爬山搜索—聚焦曲线拉格朗日拟合定位的新型图像清晰度评价函数最大化搜索策略以实现快速聚焦的目的;在显微图像分割方面,设计了Canny边缘检测与Hough变换结合的提取显微目标结构参数的处理方法,并对Hough变换存在计算量大、精度低的缺陷进行了有效改进;针对微操作工具的实时显微图像跟踪问题,利用归一化自相关匹配算法构造图像跟踪器,并设计手眼协调和模板切分亚采样策略来实现实时跟踪机器人夹持器末端、实时获取其位置参数的目的;在微小型机器人的显微视觉控制方面,从动态的角度出发实现了机器人微运动姿态的测量,设计了有限状态机形式的2D显微视觉控制器来引导微夹持器末端向操作目标运动和基于Depth-From-Focus原理的机器人微夹持器末端深度方向控制策略。最后,从实时视觉伺服系统的实现角度,设计了基于共享内存通讯的双进程并发视觉计算系统软件构架。然后以视觉引导微小型机器人完成微小零件的夹取、搬运和视觉、微力觉引导机器人完成微小零件的组装等典型微操作任务为背景展开实验研究。

高延增[5]2010年在《超小型水下机器人关键性能提升技术研究》文中进行了进一步梳理超小型水下机器人常被用在江河湖海的浅水水域中,广泛应用于水库堤坝检查、核电站检查、海上钻井平台与桥墩水下部分的监测与修复,沉船考古、海底光缆检测、海带收割、绿藻探查以及水雷布放、水下侦察等民用和军事领域。本文研究了超小型水下机器人关键性能提升技术,包括位姿检测系统、扫描声纳图像校正系统和基于包容结构的开放式控制系统。水下机器人本体的位姿检测是其控制、扫描声纳图像几何校正等任务的基础;声图像校正处理是水下机器人正确感知水下环境的重要手段,是水下作业、检测等的基础;控制系统是水下机器人的核心部分,它对水下机器人的操纵性、可靠性等起决定作用。本论文的主要工作包括:(1)超小型水下机器人智能快速定位。超小型水下机器人位置测量的常用设备是短基线定位声纳系统,它的定位速率较低且连接不够可靠,很难与姿态测量传感器同步。本论文在对比分析常用的机器人概率定位算法基础上,使用群集智能的种群粒子优化定位算法推算短基线定位声纳实测信号间隙水下机器人的位置,提高定位速度;使用模块化的方案融合短基线定位声纳、电子罗盘、X/Y倾角传感器和深度传感器组成超小型水下机器人定位的硬件系统,增强定位系统的可扩展性,部分模块出现异常时不影响其它模块的正常工作;基于构件的软件设计方法使系统具有良好的伸缩性、协作性和重用性。在船模实验池中进行了定位效果测试实验,结果表明采用该方法能有效提高水下机器人的定位速度,使得位置测量与姿态测量同步,为后续的控制及图像采集处理系统提供及时的反馈和参考信号。(2)基于位姿检测与形态学操作的声纳图像校正。首先使用递归最小二乘滤波器对单一扫描角度上的声纳信号进行预处理;对于ROV位姿变化引起的扫描声纳图像的几何畸变,先根据本论文提出的位姿检测系统得到的ROV位姿信号进行几何校正,在此基础上使用了变结构元的数学形态学操作方法对校正后的扫描声纳图像做进一步处理,得到较为理想的结果。由结果图像可以看出,经过校正处理后,声纳图像的畸变现象得到改善且可以方便后续的障碍物识别。(3)一种基于包容结构的开放式水下机器人控制系统。水下机器人具有工作环境的复杂性和水下作业的任务多变性等特点,使得传统的层级式的机器人控制系统结构难以满足需求;而简单的开放式系统又容易引起整体性能变差、效率低下等缺点。本论文提出了一种基于包容结构的开放式控制系统,使用开放式的系统集成方式,而在水下机器人的运动控制中使用包容式结构。根据水下机器人的工作特点分析了水下机器人控制的主要内容;在此基础上使用Q-学习算法控制水下机器人运动,在学习过程的动作选择阶段采用基于径向基函数的神经网络。以艏向角锁定为例的仿真实验表明,相对于单纯的基于径向基函数的神经网络,本论文所使用的方法使得水下机器人艏向角锁定的均方误差有明显下降;而在经过初始阶段的学习后最大、最小误差也都有较大的下降。

佚名[6]2011年在《自动化技术、计算机技术》文中研究说明TP112011011954一般成本环境下分散式多工厂资源调度/陈胜峰,蔚承建(南京工业大学信息科学与工程学院)//信息与控制.―2010,39(5).―640~645.研究多工厂一般成本结构特征,即工厂含有固定成本和单位成本,提出了一种分散式多工厂资源调度方法,该方法使用基于连续双向拍卖市场机制的ZI2策略。ZI2策略是一种包含价格和数量的二维报价策略,agent采用该策略在给定价格范围内随机提交报价。模拟实验结果验证了ZI2策略可以实现较高的调度效率,整体平均效率达到90%。图2表8参10

李瑾[7]2007年在《污水泄放机器人视觉定位研究》文中进行了进一步梳理论文全面研究了当前各种机器人技术,提出了一种新型的用于污水处理厂污水管道对接机器人;深刻研究了机器视觉技术,并根据双目视觉定位原理完成了机器人对目标管口的定位;针对污水车厢与污水管口颜色相同以及光照干扰导致的不利因素,采用FFT互相关模板匹配识别污水车厢上特殊黑白图片的方法来完成图像特征提取。由于本课题中污水车管口的颜色、环境光照、拍摄角度对拍摄到的图像有较大影响,用边缘检测完成定位的方法不适合用于对污水车厢上污水管口的定位。故本文采用的方法为:在距污水管口固定距离处设置一个黑白相间的圆形图片,用模式匹配识别特征图像,并通过叁维坐标转换来完成定位。采用FFT互相关模板匹配进行特征提取:将需要识别的图像部分作为匹配模板,在采集到的图像(目标图像)中移动匹配模版,用FFT计算原图像与目标图像的灰度互相关值,计算得到的互相关数值为最大处即为识别目标,从而可以得到圆形特征图片圆心的图像坐标,经过叁维转换关系,得到图片中心点的世界坐标,再通过坐标转换便可以得到污水管口中心点的世界坐标,从而完成定位。最后将定位得到的目标管口数据传送到机器人控制部分作为运动控制参数,利用机器人体内嵌的ARM自带的PWM输出,结合PIC控制软件来控制机器人运动,最终由机器人将污水管道与污水车连接起来。实验证明,本文使用的方法适用于在污水处理厂环境下对污水车管口定位。

金梅[8]2010年在《基于深度无关立体视觉模型的机器人控制系统研究》文中研究指明机器人视觉伺服是一种利用视觉传感器与计算机实现人的视觉功能的技术。它从采集的图像中提取信息,并进行处理及理解,处理的结果被用于机器人的控制。由于机器人视觉伺服具有高灵活性、高精度,能够对机器人标定误差具有强的鲁棒性等优点,所以在较短的时间里成为机器人研究领域中的热点之一,并在工业生产、海洋探测等众多领域得到了成功的应用。本文在总结了目前机器人视觉伺服控制系统发展状况的基础上,在该领域内主要进行了以下几个方面的研究工作:在静态目标的定位中,针对Harris角点算法的误匹配,提出了一种快速的RANSAC算法;在动态目标跟踪中,为了提高在复杂背景情况下的跟踪的鲁棒性和准确性,将量子遗传算法与粒子滤波算法相结合,有效地改善了粒子滤波的退化问题。针对目前手眼视觉伺服系统模型中普遍存在深度信息估计的问题,提出了一种用于双目视觉伺服控制的模型,该模型不存在未知物点的深度信息,避免了深度值的测量与估计,从而提高了系统的控制性能。通过对该模型进行误差分析,求出了影响特征点深度信息的因素。基于深度无关的立体视觉伺服模型,针对双目手眼机器人控制系统的定位任务,设计了两种控制器。首先,在摄像机内外参数已知的情况下,利用一般模型法及最优控制方法设计直角坐标空间中机器人的运动指令,给出了摄像机的平移和旋转速度,实现了定位任务,本方案无需知道系统的几何模型,通过选择合适的参数来调整系统的暂态过渡过程,从而调节输出跟踪预定轨迹的时间。其次,考虑不确定性对系统所产生的影响,建立了系统的状态方程,利用γ?耗散和L2性能准则定义,得出了系统全局稳定的充分必要条件,该条件与摄像机的内外参数无关;根据引理得出系统具有小于或等于γ的L2增益,即系统具有L2性能,对系统中存在的不确定,尤其是摄像机内参数的变化具有鲁棒性。在以MOTOMAN-UP6机器人为被控对象的机器人视觉伺服系统的硬件和操作平台的基础上,采用VC软件编程,通过调用MOTOMAN-32所提供的机器人函数,搭建了视觉伺服的实验平台,编制了图像采集与处理程序、机器人运动与控制程序、控制算法程序。对深度无关立体视觉模型进行了实验验证和误差分析,实验结果表明该模型的有效性和实用性。

邵泽明[9]2009年在《视觉移动机器人自主导航关键技术研究》文中指出随着移动机器人的研究和发展,其突出的工作性能在许多领域都被广泛应用,但同时也提出了更高的要求,越来越复杂的工作环境要求移动机器人智能化程度更高,自主能力更强,尤其是自主导航能力要更好。由于模拟人眼的视觉传感器技术具有较高的智能和优势,视觉移动机器人的发展越来越受到人们的重视,并表现出良好的发展前景,特别是在军事上的应用前景更加光明。本文针对视觉移动机器人在复杂、未知环境下的自主导航问题,重点研究了视觉定位、视觉障碍物检测以及视觉道路检测等关键技术,以提高移动机器人的智能水平,同时设计并实现了视觉移动机器人软、硬件系统。(1)视觉定位方面:研究了图像特征点的检测与匹配。针对图像特征点的检测,提出了分层快速SUSAN角点检测算法,利用角点周围像素的灰度特性,结合提升小波变换由粗到细的分层策略,快速找到角点特征,解决了SUSAN角点检测算法速度较慢的问题,为特征点的匹配打下基础。针对图像特征点的匹配,提出了一种新的RSTC不变矩特征点匹配方法,利用新构造的RSTC不变矩来度量角点的相似性,并用改进的RANSAC鲁棒估计以及外极线约束进行引导匹配,获得了较高精度的匹配结果,消除了野值匹配对所导致的长线条,较好地解决了图像特征点匹配不准确的问题。(2)视觉障碍物检测方面,研究了视差图计算方法,提出了自适应分层粒子群稠密视差图估计算法,首先利用SIFT特征检测与匹配算法准确确定视差范围;然后根据图像和视差范围的大小分层,建立由粗及细的自适应分层图像金字塔结构,加快搜索速度、减少错误匹配;最后在优化函数中引入根据匹配窗口大小自动变化的因子来调整灰度项和平滑项的权重,并用改进的带变异算子的整数形式的PSO进行优化,克服了遗传算法搜索的盲目性以及容易陷入局部最优的缺陷,能够更快、更好的找到最优解。(3)视觉道路检测方面,研究了图像处理中适合复杂图像处理的颜色模型,提出了SCT域归一化互信息道路检测算法,结合SCT颜色模型与人眼视觉系统的反应较接近、计算量小、抗噪能力强和归一化互信息测度鲁棒性较强、精确度较高的优点,充分利用像素点之间的关系进行加速处理,快速检测出移动机器人可行驶区域和可疑障碍物,为视觉系统障碍物的检测奠定基础。(4)在上述研究的基础上,本文设计并实现了视觉移动机器人的软、硬件系统。根据视觉移动机器人的功能需求,在“悍马”越野模型车的基础上,安装了左右伺服减速驱动电机、摄像机安装支架以及旋转机构,设计了与之相应的硬件控制系统,并搭配摄像机、无线影音传输模块以及图像采集卡等组成双目立体视觉系统的硬件部分,从而构成了视觉移动机器人平台;在硬件平台的基础上进行了视觉系统的开发,实现了视觉移动机器人自主导航控制功能。

参考文献:

[1]. 基于光学小波变换的机器人视觉系统及其实验研究[D]. 崔庆华. 河北工业大学. 2002

[2]. 自动化技术、计算机技术[J]. 佚名. 中国无线电电子学文摘. 2010

[3]. 面向机器人的多目视觉检测算法研究及系统实现[D]. 柯丰恺. 华中科技大学. 2016

[4]. 面向微操作的微小型机器人视觉伺服技术研究[D]. 宋宇. 哈尔滨工业大学. 2007

[5]. 超小型水下机器人关键性能提升技术研究[D]. 高延增. 华南理工大学. 2010

[6]. 自动化技术、计算机技术[J]. 佚名. 中国无线电电子学文摘. 2011

[7]. 污水泄放机器人视觉定位研究[D]. 李瑾. 北京化工大学. 2007

[8]. 基于深度无关立体视觉模型的机器人控制系统研究[D]. 金梅. 燕山大学. 2010

[9]. 视觉移动机器人自主导航关键技术研究[D]. 邵泽明. 南京航空航天大学. 2009

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  

基于光学小波变换的机器人视觉系统及其实验研究
下载Doc文档

猜你喜欢