基于图像纹理分析的目标物体识别方法

基于图像纹理分析的目标物体识别方法

一、基于图像纹理分析的目标物体识别方法(论文文献综述)

刘步实[1](2021)在《复杂交通场景下轻量化视觉感知方法研究》文中认为复杂交通场景的构成要素丰富、目标多元,智能车辆的环境感知技术不仅可以帮助其精确感知和理解周围态势,及时掌握自身行驶状态并与外界环境信息实现交互,还能够有助于促进安全性能的提升。随着以图像、视频为媒介的多媒体技术蓬勃发展,视觉传感设备提供的场景信息更加充裕可靠且成本较低,因此基于视觉的环境感知已成为了智能车辆完成路径规划、决策控制等功能不可或缺的途径之一。其中,轻量化感知方法是在保持精度基础上进一步降低模型复杂度和参数量,旨在减轻计算机存储以及运算量负担,既涵盖了对模型架构压缩等思想的灵活运用,也包含了相应计算效率的探索。这类方法推动了机器视觉、控制科学等技术在移动和嵌入式设备的应用落地,并在智能驾驶、智慧交通等诸多领域都得以广泛应用。本文重点研究如何利用图像处理方法实现更精准的环境感知,运用和设计新颖的轻量化感知结构模型,帮助自动驾驶技术可以在更加便携、易操作的处理平台上实现对高分辨率道路图像的感知与理解,提升智能车辆对于复杂交通场景的判断和辅助控制能力。环境感知的关键挑战来自于系统对高层视觉内容的灵敏解读和判断,从而辅助智能车辆迅速感知交通场景中的空间布局、目标特征等动态信息,为之提供值得信赖且足够精确的执行操作与探测响应的依据。不过,实际交通场景中的道路前景和背景会时刻发生变化,多种复杂目标特征各异且相互关联,即使是同类物体不同实体之间也可能会因为拍摄角度、距离等造成尺度变化或遮挡的情况发生。诸多客观因素都为基于视觉的环境感知方法带来了严苛的考验,使其实现全局的准确理解和信息交互仍有待巩固和提升。因此,本文围绕复杂交通场景视觉感知任务的关键技术进行深入研究与创新,利用基于机器视觉的思想感知不同层级的视觉特征,构建了多种改善环境感知性能的轻量化模型和方法,同时提高其精度及效率。首先,利用轻量化的机器学习分割方法获取图像浅层特征,完成了道路环境感知中的可行驶区域识别与提取。接着,为了更全面地理解道路语义内容,结合轻量化的级联卷积神经网络获取更深层次的图像特征,实现作为环境感知问题中核心解决方案的场景语义分割。在此基础上,为了能够进一步实现对场景中可能存在的车辆障碍物及时地感知和规避,构建了轻量化的车辆目标检测模型。研究成果对于智能车辆的环境感知能力和发展具有实际意义和参考价值。本文的具体研究内容与贡献概述如下:(1)道路场景因其结构的多样性、纹理变化的复杂性和自然曝光的不稳定性,使得基于道路分割的可行驶区域识别方法大多存在信息冗余,并且存在边界丢失、模糊等质量问题。本文提出了一种基于MS-RG混合图像分割模型,该模型在无监督学习方法下提供了更多的位置像素信息,且不依赖于数据量的大小,应用在道路图像分割上完成对目标可行驶区域的提取。引入图像变换增强理论进行预处理,利用超像素算法进行更直接高效地分割,优化多种子点区域生长分割方法,解决不能完整分割问题,有效处理全局与局部像素特征,更好地控制噪音和灰度不平均,使得图像各区域之间的边界信息分割也更加分明,改善了分割方法的鲁棒性和实时性。在道路图像数据集的实验结果表明,本文提出的模型适用性强,相比于其它方法有效地提升了分割准确性和实时性,可准确识别出图像中的道路信息,可以满足实际应用需求。(2)由于深度学习对街道环境的准确认知,卷积神经网络在交通道路场景的应用中取得了巨大的发展。然而,复杂的网络深度、大型数据集、实时需求等都是实现智能驾驶技术迫切需要解决的典型问题。本文提出了一种改进的轻量级实时语义分割网络,利用图像级联网络体系结构,同时考虑道路语义建模及深入到语义层次的道路环境深度理解,使用多尺度分支和级联特征融合单元来提取丰富的多层特征。在本文中,空间信息网络被设计为传输更多关于空间位置和边缘信息的先验知识。在训练阶段的过程中,本文还附加了额外的加权损失函数,优化道路图像语义分割的鲁棒问题,以增强深度学习网络系统的学习过程。这种轻巧的网络可以快速感知道路语义信息并根据分割结果实现对道路场景的环境感知,从而满足了辅助驾驶的需求。在道路数据集的实验结果表明,相比较其他流行的语义分割算法,本文模型对细节信息的处理能力和时效性上都得到了显着的提升。(3)在复杂道路场景下执行车辆障碍物检测任务,车辆目标易受到不同物体实例之间尺度变化以及其他交通目标遮挡等干扰,模型提取的特征属性不一致,尤其是目标物体和小尺度的物体发生漏检、误检问题。为了平衡检测性能和实时需求,本文提出了一种轻量化的基于多视野特征融合的车辆检测模型,采用单阶段多框的目标检测框架,利用不同的任务模块挖掘图像深层次关联信息,减少局部特征丢失,并且保证复杂交通场景中目标障碍物检测的效率。在深层特征上,构建了特征融合模块促进算法对多层特征层的上下文信息传递;在浅层特征上,采用基于多分支卷积和膨胀卷积构建特征金字塔的多视野模块多尺度特征,学习目标车辆障碍物的位置和类别。实验结果表明,本文模型在保证实时性的前提下,不仅提升了复杂交通目标中多尺度、遮挡物的检测性能,提高了环境感知算法的工作效率。

郑太雄,江明哲,冯明驰[2](2021)在《基于视觉的采摘机器人目标识别与定位方法研究综述》文中研究说明目标识别和定位的精度直接关系到采摘机器人采摘效率、质量和速度。本文对近年来采摘机器人的目标识别和三维定位的研究工作进行了系统性的总结和分析,综述了果蔬识别和定位的几种主要方法:目标识别:数字图像处理技术、基于机器学习的图像分割与分类器和基于深度学习的算法;三维定位:基于单目彩色相机、基于立体视觉匹配、基于深度相机、基于激光测距仪和基于光基3D相机飞行时间的三维定位。分析了影响果蔬识别和定位精度的主要因素:光照变化、复杂的自然环境、遮挡以及动态环境干扰下成像不精确。最后对采摘机器人目标识别与定位的未来发展作了几点展望。

张柏行[3](2021)在《基于高光特征的表面粗糙程度检测及其应用》文中提出当光照射物体时,物体表面一定区域会生成大小形状不一的亮斑,该亮斑区域称为高光区域。高光的存在会使图像局部产生颜色畸变导致信息丢失,因此高光通常会被当作噪声筛除。在使用非接触类检测方法检测物体表面粗糙程度时,强光环境会使物体表面产生高光区域,从而对检测结果造成影响。但高光区别于过曝,能通过亮度震荡的形式反映物体表面粗糙程度。本文将高光定义为一种可以反映物体表面凹凸不平信息的局部特征,记为高光特征。对比三种经典的光照模型,建立针对高光特征这一局部特征的高光光照模型记为Highlight模型。通过Highlight模型利用最小二乘法曲线拟合和小波变换结合的方法提取高光特征。并分析高光特征与表面粗糙程度的关系,提出了一种基于高光特征的表面粗糙程度检测方法,使高光特征应用于表面粗糙程度检测。本文对瓷砖的检测实验表明了基于高光特征的表面粗糙程度检测的有效性,并且基于不同材料的高光特征有较为明显的区分度。高光特征对于物体识别也具有一定的研究应用价值。本文搭建了高光图像采集平台,调整光照环境与图像采集装置的相关参数,确保能准确清晰地采集到高光图像,且图像不会过曝。对采集的高光图像提取高光特征,基于高光特征检测物体表面粗糙程度以及物体识别。具体研究内容如下:1、分析Lambertian模型、Phong模型、Rendering Equation模型三种经典光照模型的原理与应用场景。提出了一种基于暗室且光源为唯一直射光源环境下的Highlight模型,通过该模型突出高光特征这一局部特征。2、针对提出的Highlight模型,采用最小二乘法曲线拟合和小波变换结合的方法提取高光特征,使高光特征表征为一种频域上的明暗振荡趋势,并选用几种材料测试高光检测算法。3、对高光特征做进一步描述,取得高光特征值Z。通过高光特征值Z检测不同瓷砖的表面粗糙程度;基于不同材料样本的高光特征值Z区分度较高,搭建卷积神经网络(CNN,Convolutional Neural Networks),基于高光特征识别瓷砖,识别率达到了82%。

张思炜[4](2021)在《基于图像特征分析的冰雹检测方法的研究》文中研究说明冰雹灾害每年都会给人民以及国家带来巨大的经济损失,所以准确的识别冰雹灾害对人民财产以及国家设施的保护起着重要的作用。目前,研究学者大多通过对冰雹云的多普勒雷达回波进行分析,从而实现冰雹灾害的预警与识别,但是识别结果还会存在一定的误差。本文提出从图像的角度出发,对降落的冰雹进行检测,将图像处理技术作为雷达检测的后验方法,进一步提高雷达预测识别的精准性。本文对图像检测算法中存在的热点、难点进行了重点的研究,具体的内容如下:首先,介绍了冰雹图片的采集设备、采集方法和采集的环境。然后对采集的冰雹图片进行预处理,来消除可能存在的噪声、光照等因素,在比较了三种彩色图片滤波方法,选择效果最好的距离方向滤波器实现图像的滤波;当光照等因素导致图像效果不佳时,本文选择MSRCR算法来增强图像质量。图像的预处理能够较好增加图像的细节信息,为之后的特征提取做好准备。其次,设计并实现了在D-S理论框架下融合多个特征的冰雹识别方法。对预处理后的图片进行颜色特征和纹理特征的提取,建立支持向量数据描述的分类模型进行识别,实验结果表明,基于单一特征的冰雹识别效果欠佳。利用D-S证据理论将颜色特征与纹理特征进行融合,对冰雹进行识别,对比实验结果表明,基于D-S证据理论的多特征融合方法能有效的提高冰雹的识别率,降低其误识率和拒识率。最后,对图像中的冰雹进行特征参数的测量。本文提出了一种基于HSI色彩空间和分水岭算法的测量方法。该方法对传统的分水岭算法进行改进,改进的分水岭算法首先进行HSI颜色模型的分割,之后利用距离变换和极小值变换消除多余的局部极小值。针对分离后的冰雹颗粒,分别采用统计像素法、Freeman链码和改进的最小外接矩形法来测量冰雹颗粒的面积、周长和直径。实验结果表明,所采用的方法精准度高、相关性较好。

徐超义[5](2021)在《基于图像的纹理粗糙度力触觉反馈系统设计》文中研究指明力触觉反馈技术在虚拟现实领域中占据重要地位,力触觉反馈技术是在虚拟环境中加入力觉信息和触觉信息,从而模拟出人类对真实物体的力触觉感知过程,将虚拟环境中的力触觉信息以更加真实、自然的方式反馈给操作者,大大提升了虚拟现实系统的交互性和操作者的沉浸感。而图像作为真实物体在二维平面的投影,记录了物体表面丰富的细节信息,因此基于图像的力触觉反馈技术研究具有重要意义及价值。本文围绕基于图像的纹理粗糙度力触觉反馈研究课题,以提取高质量的图像纹理粗糙度特征和建立具有真实性的纹理粗糙度力触觉感知模型为出发点,进行了图像纹理特征提取算法和纹理粗糙度力触觉表达模型的研究。首先,分析了图像粗糙度力触觉反馈的研究现状,针对粗糙度力反馈的需求建立了基于3D Systems Touch力反馈设备的粗糙度反馈系统。本文提出了基于中心对称局部二值模式CS-LBP(Center Symmetric-Local Binary Pattern)和Tamura算法的图像纹理特征提取方法,并建立具有心理物理学特性的图像纹理粗糙度力觉模型,通过3D Systems Touch力反馈设备将纹理粗糙度反馈给操作者,实现图像纹理粗糙度的力觉再现。其次,为了提高图像纹理粗糙度的反馈真实性,设计了基于压电陶瓷的振动触觉反馈装置。本文通过振动触觉感知实验研究了驱动电压幅值和频率对压电振动器振动强度的影响,从而将驱动电压幅值和频率与图像粗糙度建立映射关系,实现图像粗糙度的振动触觉反馈。最后,为了提升3D Systems Touch力反馈设备的粗糙度反馈性能,本文将振动触觉反馈装置作为辅助装置与3D Systems Touch力反馈设备进行了集成设计。通过大量心理物理学实验证明本文提出的基于图像的力觉反馈方法能准确再现图像纹理粗糙度,另外集成的力触觉反馈系统相较于单一模式的力觉反馈系统有更高的感知真实性和感知效率。

赵子默[6](2021)在《基于激光雷达成像的煤矸智能分选技术研究》文中研究说明十四五规划指出,在未来多年内,煤炭仍将是我国需求量最高的能源,它对国家的工业、经济和生活水平发展有着不可替代的作用。但是煤炭在开采过程中还往往伴随着大量矸石的产出,矸石的密度大,热量低,若大量矸石混合在煤炭中会造成运输成本的上升,更会降低煤炭的燃烧效率并释放出有毒有害气体。因此在矿井或洗煤厂中就对煤和矸石进行分选是一项重要的工序。得益于煤和矸石表面的灰度和纹理差异,使得基于图像识别的煤和矸石的自动化分选方法成为可能。随着成像设备和高性能计算机的发展,在实验室环境中,基于图像的煤矸识别方法在设备和算法方面都得到了快速发展。但在真实的矿井或洗煤厂中,由于使用环境较为复杂,传统的图像识别方法在软硬件方面往往存在技术缺陷,导致识别的安全性或准确性不能满足生产需求。针对上述问题,本文首次提出了利用激光雷达(LiDAR)主动成像的煤矸的识别手段,通过点云信息获取到煤矸反射强度图像,并且研究了针对煤矸反射强度图像的识别算法,对比了两种传统纹理特征提取算法和一种改进的神经网络识别算法,发现改进后的神经网络算法能够更快更好地识别煤矸反射强度图像,最终取得了满意的效果。本文首先针对洗煤厂的现场环境完成了激光雷达的选型,并搭建了煤矸点云信息采集系统。随后在洗煤厂的实际生产环境中采集了 10000块煤和矸石的点云信息,对点云信息进行了一系列预处理,其中包含距离信息和反射强度信息。提出了一种利用距离点云信息背景去噪的方法,通过传送带与矿石间的距离差,从物理层面完成背景去噪,据此可得到无背景信息的煤矸反射强度图像。随后对反射强度图像做归一、滤波和闭运算等处理以提高图像质量。使用感兴趣区域算法将一张含有多块煤矸的反射强度图像分割成多张含有单块煤矸的反射强度图像,并将其大小调整至统一大小,得到包含10000张煤矸反射强度图像的数据集。设计了两种传统特征提取分类算法:第一种为利用灰度共生矩阵(GLCM)特征提取算法提取煤矸的特征,并用支持向量机(SVM)特征分类算法对特征进行分类;第二种为利用梯度方向直方图(HOG)联合局部二值模式(LBP)特征特区算法提取煤矸的特征,并结合SVM分类算法的分类算法对特征进行分类。优化了基于VGG(Visual Geometry Group Network)卷积神经网络的架构,通过剪枝得到了本文的VGG-prune网络,并与经典的VGG-16和VGG-19网络架构进行了实验对比,证明了 VGG-prune网络在不影响识别准确率的情况下能够大幅提高识别速度。本文最后使用了煤矸反射强度图像对上述三种算法进行了模型训练与测试,并采用了全面的评价方法对它们的测试结果做出了评价。测试结果表明,VGG-prune模型对煤和矸石的识别准确率为92.13%,F1-score分数为0.926,识别速度为37.4块/秒,其各项数据都要优于另外两种传统的纹理特征识别算法。实验结果证明了在洗煤厂环境中,激光雷达结合VGG-prune网络能够实现对煤和矸石的快速准确识别,证明了激光雷达在矿石识别方面具有科研意义和应用价值,并且弥补了现存的图像煤矸识别法的缺陷,也为激光雷达的应用提供了新思路。

刘炫麟[7](2021)在《基于无人机航拍图像的植物种类智能识别研究》文中研究表明随着近年来深度学习技术在植物图像的识别分类任务中广泛运用,对植物的分类识别领域发展起到了一定的促进作用,并且给农林类学科的发展给予了很大帮助。并且随着在计算机视觉领域相关研究的深入,也为无人机航拍图像的场景分类、目标检测、图像分割等任务提供了一项新型的技术手段。过去在进行园林城市的对植物种类信息的调查方法需要耗费大量的时间和精力,通过借助无人机航拍图像和深度学习进行对植物种类的识别,可以极大地减少对植物种类调查所需要的时间,降低了调查的人工成本,提高了识别的效率,但受气象条件影响大、精度较低、制图周期长、实时性低,并且需要支付高昂的资料购买费用。无人机是一种高效、快速获取区域内实时高分辨率图像数据的平台,通过使用人工智能对植物种类进行识别,为城市植物资源的调查研究提供更多的可能性。本研究以湖南长沙圭塘河风光带中一段区域的植物为研究对象,主要研究无人机航拍图像处理以及深度学习在无人机航拍图像植物识别中的应用,利用无人机RGB航拍正射影像数据,采用以基于Resnet三种不同层次结构的Mask R-CNN实例分割模型对研究区域内的7类优势树种进行分类和识别,识别对象为不同种类的植物,实现在航拍图像中对于植物种类的智能识别。本文主要研究内容如下:利用无人机采集基于正射影像下城镇植物的树冠图像,构建了一个在复杂背景下包含图像多种植物的图像数据集。采用水平翻转,调整亮度、对比度、饱和度和色调等方式对数据集进行增强和补充。通过Mask R-CNN模型对数据集中的图像数据进行实验,采用先进行在COCO数据集上预训练后再进行迁移学习的方式,证明深度学习方法在航拍图像中植物识别的有效性,无人机RGB航拍正射影像在一定空间范围内的城镇植物种类的智能识别与分类中有较强的应用潜力,且不同层次的网络结构与不同的背景复杂程度会影响分类结果的准确性。以Resnet-101为主干网络的Mask R-CNN实例分割模型实现了相对较高的识别精度(BboxmmAP为0.8052,MaskmmAP 为 0.8045,kappa系数为0.7635),其次是以Resnet-50为主干网络的Mask R-CNN实例分割模型(BboxmmAP为0.7696,MaskmmAP为0.7560,kappa系数为0.7232),以 Resnet-18为主干网络的 Mask R-CNN实例分割模型(BboxmmAP为0.7021,MaskmmAP为0.7522,kappa系数为0.7092)总体表现相对较差表明基于无人机航拍图像可作为未来城市植物资源调查研究的一种方式。不同类别植物的颜色、纹理、形状等特征对识别结果的影响差异较大,但主要还是受到高度及光照产生的影响,使得较为低矮的海桐及鸡爪槭的细节信息的数据不够清晰,降低了最终识别的准确率。不同的背景下,植物的识别结果也有所不同。如在简单背景下的香樟,识别准确率大幅高于复杂背景下其他类别的植物,其识别准确率均达90%以上。实地调查所产生的地面样本参考数据的准确性也对植物种类的识别结果产生较为明显的影响。地面样本参考数据越详实,其数据集中标注的数据也越准确,使得模型能够更好的识别出不同类别植物间的特征,导致识别结果的准确率得到相应提升。

王书宇[8](2021)在《基于视觉检测的机器人按需求搬移工件系统研究》文中提出抓取和放置工件是工业环境下机器人系统的主要任务之一,视觉控制是机器人系统的重要控制手段,采用图像技术对工件进行识别在现代化智能生产线上具有重要的意义。本论文主要以合页为例进行按需搬移任务,可用于机器人打磨前代替人工进行工件摆放,有助于提高机器人打磨生产线的自动化程度和生产效率。本论文主要对散乱堆叠工件的按需搬移过程进行研究,主要研究内容如下:(1)针对目前工业现场弱纹理堆叠工件识别困难的问题,提出一种以工件表面孔洞为特征的改进几何模板匹配算法,以合页为例进行工件识别。在完成工业相机选型和标定的基础上,首先采用Canny算法进行边缘检测;其次采用旋转卡壳算法求取轮廓的最小面积外接矩形,进行几何约束后得到孔洞对应的孔轮廓,并采用随机增量法计算孔轮廓的最小外接圆得到孔特征圆心坐标;然后采用提出的改进几何模板匹配算法,即根据孔特征之间的几何约束进行工件识别;最后根据孔特征之间是否存在工件的显着边缘剔除误识别工件。最后采用本论文所提出的基于几何约束的改进几何模板匹配算法对合页、L型连接件、T型连接件和法兰进行工件识别实验证明了该方法的有效性。(2)设计并搭建机器人按需搬移工件系统。首先基于西门子NX MCD平台搭建机器人按需搬移工件虚拟调试平台,进行布局合理性验证以及机器人按需搬移工件过程的路径规划研究,为真实的机器人按需搬移工件系统搭建奠定基础。根据工件按需搬移系统功能要求,进行系统方案设计,搭建机器人按需搬移工件系统,并进行机器人控制系统、末端缓冲装置以及上位机界面的设计,最后对刚体的位姿描述以及坐标系的转换进行阐述,便于后续机器人位姿的转换以及机器人运动控制。(3)进行机器人按需搬移工件实验。要进行机器人抓取,需要工件精准的位姿信息,首先对工件进行位姿估计,由于工件的实际尺寸已知,且在工件识别阶段已经得到图像中孔特征的位置,所以采用求解Pn P问题的方法进行工件位姿估计,通过实验对比分析了求解Pn P问题中常用的P3P法、EPn P法和基于迭代法的位姿估计结果,并最终选择重投影误差较小的迭代法作为机器人按需搬移工件系统的位姿估计方法。在对机器人按需搬移工件系统手眼标定的基础上,对工件的位姿进行坐标变换,得到工件在机器人基坐标系下的位姿;然后基于按需搬移工件过程所规划的路径,对机器人进行运动控制。最后在所搭建的工件搬移平台上进行了工件搬移实验,验证了本文所提出方法的有效性。本论文提出一种以工件表面孔洞为特征的改进几何模板匹配算法,解决了工业现场带孔弱纹理堆叠工件识别困难的问题;提出了基于NX MCD虚拟调试的方法,对虚拟调试平台进行布局合理性测试以及搬移工件过程的路径规划研究,缩短设计周期降低成本;选用了迭代法作为已知孔特征间相对位置关系工件的位姿估计方法,然后进行手眼标定和位姿转换,得到工件精准的位姿信息,最后进行工件搬移实验。为机器人按需搬移工件提供了一种有效的方法,有助于提高机器人打磨生产线的自动化程度和生产效率,增加经济效益。

白宝军[9](2021)在《基于图像增强与多特征的煤矿井下火灾烟雾检测方法研究》文中进行了进一步梳理矿井火灾是煤矿常见的五大灾害之一,严重影响了煤矿的正常生产和矿工的人身安全。目前针对煤矿井下特殊环境,尚未有较成熟的火灾烟雾检测工程应用,存在漏报、误报等情况。本文针对这一问题,拟基于图像特征探讨煤矿井下的烟雾检测算法,提高火灾识别的及时性和准确性,这对于有效解决矿井火灾的自动检测和智能预警有着十分重要的意义。本文主要研究工作如下:(1)矿井视频图像增强。针对煤矿井下光照不均匀、受尘雾的影响,计算机不能准确检测到烟雾的问题,在带有颜色保护的多尺度Retinex算法(MSRCP)理论基础上结合粒子群优化算法,提出一种基于改进MSRCP算法的煤矿井下图像自适应增强方法来提高矿井图像亮度、突出矿井图像烟雾信息。(2)矿井烟雾多特征分析。针对烟雾具有运动特性,采用基于背景更新的图像差分法对矿井监控视频中的烟雾以及其它运动物体进行提取,通过分析巷道烟雾的飘动方向和背景变模糊度来排除部分运动非烟雾物体。进一步分析矿井烟雾的颜色特征,建立煤矿井下烟雾的颜色判决条件,针对矿井烟雾具有的纹理和梯度特征,分别提取旋转不变等价LBP特征和方向梯度直方图HOG特征来对烟雾进行描述。(3)矿井烟雾特征融合与判定。针对使用单一特征进行矿井烟雾检测准确性不足的问题,提出特征融合的烟雾检测方法,将飘动方向、背景模糊度以及颜色都满足烟雾特征的疑烟目标进行纹理和梯度特征提取,融合两种特征作为SVM支持向量机的输入特征向量,从而对烟雾进行综合判定。通过对大量烟雾视频及非烟雾视频检测结果分析,表明本文算法能有效还原矿井巷道面貌,突出烟雾信息,在模拟煤矿井下烟雾视频仿真实验中烟雾检测的准确率达到95%,在有干扰的矿井非烟雾视频检测实验中准确率达到99%,具备一定抗干扰能力,能满足矿井火灾烟雾检测的准确性要求,具有一定的实用价值。

程鹏飞[10](2021)在《面向机器人操作的物体检测与位姿估计方法研究》文中提出随着科学技术的发展,机器人不仅仅在工业中得到应用,更是走进了人们的生活中,同时也对机器人技术提出了更高的要求。与上世纪的工业机器人有所不同,现在的机器人大多具有一定的智能性,即使在非结构化的环境中,也能够很好地完成各种工作。而物体检测与位姿估计算法是机器人实现自主操作的关键技术,具有重要的研究价值与应用前景。现有多种方法可以解决物体检测与位姿估计的问题,本文采用基于图像特征的方法用于目标物体的检测与位姿估计,主要的研究内容如下所示,(1)提出一种新的特征点算法,多邻域结构张量特征(Multi-Neighborhood Structure Tensor Features,MNSTF)算法。主流的特征点算法大都只依赖图像的纹理信息,却忽略了图像的结构信息,所以无法解决无纹理的问题。多邻域结构张量特征算法则通过一系列固定的特征点邻域以及图像局部结构张量,使得MNSTF特征描述子不仅表达了纹理信息,也表达了图像结构层次的信息,实现了 MNSTF描述子的旋转不变性、高可判别性、通用性以及鲁棒性,解决了弱纹理与无纹理的问题;(2)实现了基于MNSTF特征点的立体匹配算法。在双目视觉的领域中,常常因为图像的弱纹理问题而无法精准计算像素点的空间位置信息。而MNSTF特征点算法不仅能够有效提取丰富纹理图像特征,也能够提取弱纹理图像的特征,因此在本文中尝试将MNSTF特征点算法应用于双目视觉中像素点的配准,将双目视觉的约束条件与MNSTF特征点算法有机结合,可以得到更加准确的位置信息;(3)基于MNSTF特征点算法的物体检测与位姿估计方案实现。物体检测与位姿估计是论文研究的重点,MNSTF特征点算法能够在弱纹理的情况下实现图像特征点的鲁棒性检测以及特征点正确匹配,可以用来解决该问题。首先,通过与数据库特征点匹配,完成目标物体的检测;然后,采用ICP算法估计目标与数据库中样本物体的相对位姿。论文在上述研究的基础之上进行了大量的实验,包括MNSTF特征描述子的效果测试实验、与SIFT算法对比实验、遮挡实验、基于MNSTF特征描述子的立体匹配算法、ICP算法实验,并基于ZED双目相机建立物体检测与位姿估计的实验系统。在实验中验证了 MNSTF特征点算法的有效性以及物体检测与位姿估计方法的可行性。

二、基于图像纹理分析的目标物体识别方法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于图像纹理分析的目标物体识别方法(论文提纲范文)

(1)复杂交通场景下轻量化视觉感知方法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 绪论
    1.1 研究背景与意义
    1.2 研究现状分析
        1.2.1 智能驾驶车辆发展现状
        1.2.2 可行驶区域识别算法研究
        1.2.3 场景语义分割算法研究
        1.2.4 道路车辆检测算法研究
        1.2.5 研究现状总结与难点分析
    1.3 论文主要创新点
    1.4 论文研究内容与框架
    1.5 本章小结
2 交通场景环境感知相关工作概述
    2.1 基于视觉的环境感知任务
    2.2 深度学习原理
        2.2.1 卷积神经网络
        2.2.2 经典网络模型
        2.2.3 网络学习框架
    2.3 轻量化感知的图像处理方法
        2.3.1 图像语义分割
        2.3.2 目标检测任务
    2.4 本章小结
3 轻量化的无监督可行驶区域识别方法研究
    3.1 引言
    3.2 多视觉的特征提取算法
        3.2.1 超像素视觉特征
        3.2.2 基于聚类的区域分割算法
    3.3 基于多区域的轻量化道路识别模型
        3.3.1 道路图像增强
        3.3.2 基于多种子点的像素提取
        3.3.3 构建道路分割模型
    3.4 实验与性能分析
        3.4.1 测试数据集与评价指标
        3.4.2 实验结果与分析
    3.5 本章小结
4 轻量化的尺度感知语义分割方法研究
    4.1 引言
    4.2 基于级联感知的语义分割网络
        4.2.1 基于信息感知的空洞卷积
        4.2.2 基于上下文的金字塔池化
        4.2.3 图像级联特征网络
    4.3 基于双分支的轻量化语义分割模型
        4.3.1 空间信息网络
        4.3.2 加权损失函数
        4.3.3 框架整体结构
    4.4 实验与性能分析
        4.4.1 测试数据集与评价指标
        4.4.2 实验设置
        4.4.3 实验结果与分析
    4.5 本章小结
5 轻量化的多视野车辆目标检测方法研究
    5.1 引言
    5.2 基于回归的目标检测算法
        5.2.1 单阶段多框预测网络
        5.2.2 候选区域生成
        5.2.3 边框回归与损失函数
    5.3 基于多模块的轻量化车辆检测模型
        5.3.1 特征融合模块
        5.3.2 多视野特征提取模块
        5.3.3 框架整体结构
    5.4 实验与性能分析
        5.4.1 测试数据集与评价指标
        5.4.2 实验设置
        5.4.3 实验结果与分析
    5.5 本章小结
6 总结与展望
    6.1 研究工作总结
    6.2 研究展望
参考文献
作者简历及攻读博士学位期间取得的研究成果
学位论文数据集

(2)基于视觉的采摘机器人目标识别与定位方法研究综述(论文提纲范文)

0 引 言
1 目标检测及识别
    1.1 传统数字图像处理技术
        1)基于颜色特征
        2)基于形状特征
        3)基于纹理特征
        4)基于颜色、纹理、形状等多特征融合
        5)对比分析与总结
    1.2 基于机器学习的图像分割技术与分类器
        1)基于K-means聚类算法
        2)基于贝叶斯分类器算法
        3)基于KNN聚类算法
        4)基于AdaBoost和Haar-like特征算法
        5)基于支持向量机的算法
        6)对比分析与总结
    1.3 深度学习的卷积神经网络
        1)卷积神经网络模型
        2)AlexNet网络模型
        3)VGGNet网络模型
        4)残差神经网络(ResNet)模型
        5)Faster R-CNN网络模型
        6)SSD网络模型
        7)YOLO网络模型
        8)全卷积网络模型
        9)SegNet网络模型
        10)实例分割网络模型
        11)对比分析与总结
    1.4 目标检测及识别方法总结
2 目标三维定位
    2.1 基于单目彩色相机的三维定位
    2.2 基于立体视觉匹配的三维定位
    2.3 基于深度相机的三维定位
    2.4 基于激光测距仪的三维定位
    2.5 基于光基3D相机飞行时间的三维定位
    2.6 对比分析与总结
3 挑战与未来方向
    3.1 采摘机器人目标识别与定位研究挑战
    3.2 采摘机器人目标识别与定位研究未来方向
4 结 论

(3)基于高光特征的表面粗糙程度检测及其应用(论文提纲范文)

摘要
ABSTRACT
第一章 引言
    1.1 选题背景及其研究意义
    1.2 国内外研究现状
        1.2.1 高光
        1.2.2 检测表面粗糙度
        1.2.3 模式识别
    1.3 本文主要研究内容
第二章 光照模型
    2.1 光照模型概述
    2.2 经典光照模型
        2.2.1 理想漫反射模型——Lambert光照模型
        2.2.2 理想镜面反射模型 ——Phong光照模型
        2.2.3 全局光照模型与Rendering Equation
    2.3 高光光照模型
    2.4 本章小结
第三章 高光特征提取
    3.1 成像装置
    3.2 高光特征提取方法
    3.3 高光特征提取实验
    3.4 本章小结
第四章 基于高光特征的表面粗糙程度判断以及物体识别
    4.1 基于高光特征检测表面粗糙实验
        4.1.1 高光特征值Z
        4.1.2 验证
    4.2 基于高光特征的物体识别实验
        4.2.1 数据集构建
        4.2.2 搭建CNN网络结构
        4.2.3 训练与验证
        4.2.4 实验结果分析
    4.3 本章小结
第五章 总结与展望
    5.1 研究成果总结
    5.2 展望
参考文献
致谢
攻读学位期间主要科研成果

(4)基于图像特征分析的冰雹检测方法的研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究目的与意义
    1.2 目标检测算法研究现状
        1.2.1 国外研究现状
        1.2.2 国内研究现状
    1.3 粘连物体分离算法研究现状
        1.3.1 国外研究现状
        1.3.2 国内研究现状
    1.4 本文研究的主要内容
    1.5 论文结构安排
第二章 冰雹图像预处理
    2.1 冰雹图像采集
    2.2 图像平滑去噪处理
    2.3 图像增强处理
    2.4 图像锐化处理
    2.5 颜色空间转换
    2.6 本章小结
第三章 冰雹图像特征提取
    3.1 冰雹图像颜色特征提取
        3.1.1 颜色直方图
        3.1.2 颜色矩
        3.1.3 颜色特征提取和分析
    3.2 冰雹图像纹理特征提取
        3.2.1 灰度共生矩阵
        3.2.2 分形维数
        3.2.3 纹理特征提取与分析
    3.3 本章小结
第四章 多特征融合的冰雹检测算法
    4.1 机器学习分类方法
        4.1.1 支持向量机
        4.1.2 支持向量数据描述
        4.1.3 分类方法的选择
    4.2 D-S证据理论
        4.2.1 识别框架
        4.2.2 基本概率分配函数
        4.2.3 信任函数和似然函数
        4.2.4 D-S证据理论融合规则
    4.3 多特征融合的冰雹检测算法
        4.3.1 多特征融合分类方法
        4.3.2 基本信任分配函数
        4.3.3 分类决策规则
    4.4 实验结果与分析
    4.5 本章小结
第五章 基于HSI色彩空间和分水岭算法的冰雹特征参数测量
    5.1 分水岭分割算法
        5.1.1 分水岭算法的基本概念
        5.1.2 分水岭算法的数学描述
        5.1.3 分水岭算法的过分割问题
    5.2 改进的分水岭算法
        5.2.1 HSI模型分割
        5.2.2 形态学图像去噪处理
        5.2.3 距离变换
        5.2.4 h-minima变换
    5.3 冰雹的特征参数提取
        5.3.1 冰雹颗粒的面积测量
        5.3.2 冰雹颗粒的周长测量
        5.3.3 冰雹颗粒的直径测量
    5.4 实验结果与分析
    5.5 本章小结
第六章 总结与展望
    6.1 论文总结
    6.2 工作展望
致谢
参考文献
作者简介
攻读硕士学位期间发表论文
攻读硕士学位期间参与项目情况

(5)基于图像的纹理粗糙度力触觉反馈系统设计(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 基于力反馈的图像力触觉再现
        1.2.2 基于振动刺激的图像触觉再现
    1.3 论文工作和组织结构
第二章 图像粗糙度反馈中的关键技术与开发工具
    2.1 图像粗糙度力触觉反馈中的关键技术
        2.1.1 图像纹理特征提取
        2.1.2 力触觉渲染
        2.1.3 振动刺激对力触觉感知的影响
    2.2 图像粗糙度力触觉反馈中的主要开发工具
        2.2.1 CHAI 3D
        2.2.2 OpenCV
        2.2.3 3D Systems Touch力反馈设备
    2.3 本章小结
第三章 基于CS-LBP和Tamura的图像纹理粗糙度力反馈
    3.1 基于CS-LBP和Tamura的图像纹理特征提取
        3.1.1 原理与方法
        3.1.2 图像预处理
        3.1.3 非下采样Contourlet变换(NSCT)
        3.1.4 CS-LBP特征提取
        3.1.5 改进的CS-LEBP
        3.1.6 Tamura纹理特征提取
        3.1.7 图像纹理提取实验结果及分析
    3.2 力触觉渲染算法
        3.2.1 碰撞检测算法
        3.2.2 Finger-proxy算法
    3.3 力触觉感知实验
        3.3.1 实验图像
        3.3.2 实验对象
        3.3.3 实验方法
        3.3.4 实验结果分析
    3.4 本章小结
第四章 基于压电陶瓷的振动触觉反馈装置设计
    4.1 压电陶瓷振动器的振动触觉信息表达
        4.1.1 压电陶瓷振动器振动原理以及驱动方法
        4.1.2 驱动电压幅值对压电振动器振动强度影响的触觉感知实验
        4.1.3 驱动电压频率对压电振动器振动强度影响的触觉感知实验
        4.1.4 驱动电压频率与幅值变化对人的触觉感知差异实验
    4.2 基于压电陶瓷的振动反馈装置系统设计
        4.2.1 主控电路
        4.2.2 驱动电路
        4.2.3 通信电路
        4.2.4 上位机设计
    4.3 图像纹理粗糙度特征提取与振动触觉建模
        4.3.1 图像纹理粗糙度特征提取
        4.3.2 振动触觉建模
    4.4 粗糙度感知实验
        4.4.1 实验设计
        4.4.2 实验对象
        4.4.3 实验过程
        4.4.4 实验结果分析
    4.5 本章小结
第五章 基于图像的纹理粗糙度力触觉反馈系统设计
    5.1 3D Systems Touch力反馈设备与振动触觉反馈装置的集成系统设计
        5.1.1 集成系统硬件介绍
        5.1.2 集成系统的工作原理
    5.2 图像粗糙度触觉感知实验
        5.2.1 实验图像
        5.2.2 实验对象
        5.2.3 实验方法
        5.2.4 实验结果及分析
    5.3 本章小结
第六章 总结与展望
    6.1 论文工作总结
    6.2 主要创新点
    6.3 未来展望
致谢
参考文献
硕士研究生期间的学术成果

(6)基于激光雷达成像的煤矸智能分选技术研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 传统煤矸分选方法
        1.2.2 基于图像的煤矸分选方法
        1.2.3 激光雷达目标识别研究现状
    1.3 论文的主要研究内容
    1.4 论文的主要内容和组织结构
2 激光雷达技术及数据采集与处理
    2.1 激光雷达原理
        2.1.1 激光雷达测距原理
        2.1.2 反射强度信息
        2.1.3 坐标系转换
    2.2 煤矸点云数据采集系统
        2.2.1 激光雷达技术指标
        2.2.2 点云数据采集软件
    2.3 点云数据处理与成像
        2.3.1 点云数据处理
        2.3.2 高度阈值法背景去噪
        2.3.3 反射强度图像处理
        2.3.4 数据集获取
3 纹理的提取与识别原理
    3.1 基于灰度共生矩阵的纹理特征提取
        3.1.1 灰度共生矩阵原理
        3.1.2 灰度共生矩阵特征参数提取
    3.2 基于HOG与LBP的特征提取
        3.2.1 方向梯度直方图原理
        3.2.2 局部二值模式原理
        3.2.3 HOG与LBP特征联合
    3.3 支持向量机分类原理
        3.3.1 线性可分SVM
        3.3.2 线性不可分SVM
        3.3.3 非线性SVM
    3.4 深度学习识别算法
        3.4.1 神经网络概述
        3.4.2 神经元与多层感知机
        3.4.3 卷积神经网络
        3.4.4 VGG深度学习网络模型
4 算法参数的实验与分析
    4.1 基于GLCM-SVM的煤矸识别算法设计
        4.1.1 煤矸GLCM特征值提取
        4.1.2 基于SVM的GLCM的参数确定
    4.2 基于HOG&LBP-SVM的煤矸识别算法设计
        4.2.1 煤矸HOG&LBP特征提取
        4.2.2 基于SVM的HOG&LBP的参数确定
    4.3 基于VGG的煤矸识别算法设计
        4.3.1 VGG-prune模型搭建
        4.3.2 VGG-prune模型测试及性能对比
        4.3.3 基于VGG-prune的参数确定
5 实验结果评价与讨论
    5.1 评价指标
    5.2 实验结果
6 结论与展望
    6.1 研究总结
    6.2 研究展望
参考文献
攻读硕士学位期间发表的论文及成果
致谢

(7)基于无人机航拍图像的植物种类智能识别研究(论文提纲范文)

摘要
ABSTRACT
1 绪论
    1.1 研究背景及意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究进展
        1.2.1 无人机技术
        1.2.2 图像识别
        1.2.3 植物识别
        1.2.4 实例分割的概述
    1.3 研究思路
    1.4 主要创新点
    1.5 研究目标及内容
        1.5.1 研究目标
        1.5.2 研究内容
    1.6 技术路线
2 基于无人机航拍图像植物智能识别的研究方法
    2.1 概述
    2.2 精度评价指标
    2.3 数据获取与处理
        2.3.1 研究区域概况
        2.3.2 无人机航拍图像数据的获取与处理
        2.3.3 数据集的制作
    2.4 基于航拍图像的植物智能识别模型研究
        2.4.1 模型方法
        2.4.2 实验方案
        2.4.3 航拍正射影像下植物树冠的实例分割研究
3 实验结果及分析
    3.1 实验结果
    3.2 结果分析
        3.2.1 不同结构的模型识别结果分析
        3.2.2 单类别植物识别结果分析
        3.2.3 不同实验区域的识别结果分析
4 讨论与结论
    4.1 讨论
    4.2 结论
5 总结与展望
    5.1 总结
    5.2 展望
参考文献
附录A
附录B (攻读学位期间的主要学术成果)
致谢

(8)基于视觉检测的机器人按需求搬移工件系统研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 目标识别的研究现状
        1.2.2 物体位姿估计的研究现状
    1.3 论文主要研究内容及章节安排
        1.3.1 主要研究内容
        1.3.2 章节安排
    1.4 本章小结
第2章 带孔弱纹理堆叠工件识别
    2.1 机器人按需搬移工件系统整体研究方案
    2.2 工业相机标定
        2.2.1 工业相机与镜头选型
        2.2.2 相机模型与坐标变换
        2.2.3 相机标定实验
        2.2.4 工业相机标定结果分析
        2.2.5 图像畸变校正
    2.3 带孔弱纹理堆叠工件孔特征提取
        2.3.1 工件图像Canny边缘检测
        2.3.2 求解轮廓的凸包
        2.3.3 求解轮廓的最小面积外接矩形
        2.3.4 几何约束提取孔轮廓
        2.3.5 随机增量法计算最小外接圆
    2.4 改进几何模板匹配算法识别工件
    2.5 剔除误识别工件
    2.6 弱纹理堆叠工件识别结果与分析
        2.6.1 合页识别
        2.6.2 其他带孔弱纹理堆叠工件识别
    2.7 本章小结
第3章 机器人按需搬移工件系统搭建
    3.1 基于NX MCD搭建机器人虚拟调试平台
        3.1.1 虚拟调试平台布局合理性测试
        3.1.2 机器人搬移工件过程路径规划
    3.2 机器人搬移工件系统设计
        3.2.1 工件搬移机器人控制系统设计
        3.2.2 工件搬移机器人末端工具设计
        3.2.3 机器人按需搬移工件系统上位机设计
    3.3 刚体的位姿描述与坐标转换
        3.3.1 刚体的位置描述与姿态描述
        3.3.2 刚体的坐标变换
        3.3.3 欧拉角与旋转矩阵转换
        3.3.4 旋转向量与旋转矩阵转换
    3.4 工件搬移机器人的运动控制
        3.4.1 工件搬移机器人正运动学
        3.4.2 工件搬移机器人逆运动学
    3.5 本章小结
第4章 机器人按需搬移工件实验
    4.1 PnP问题概述
        4.1.1 定义工件坐标系
        4.1.2 判断工件正反面
    4.2 P3P法的工件位姿估计
    4.3 EPnP法的工件位姿估计
        4.3.1 选择控制点
        4.3.2 计算控制点在相机坐标系下的坐标
        4.3.3 高斯-牛顿法迭代优化
        4.3.4 求解工件位姿
    4.4 基于迭代法的工件位姿估计
        4.4.1 计算单应矩阵
        4.4.2 L-M优化
    4.5 弱纹理堆叠工件位姿估计结果与分析
    4.6 按需搬移工件系统手眼标定
        4.6.1 Eye-to-hand手眼标定模型
        4.6.2 基于修正罗德里格斯公式手眼标定
        4.6.3 基于特殊正交群的手眼标定
        4.6.4 手眼标定实验结果与分析
        4.6.5 工件位姿坐标转换
    4.7 机器人按需搬移工件实验
        4.7.1 工件位姿估计的精度分析
        4.7.2 机器人按需搬移工件实验统计结果
    4.8 本章小结
第5章 结论与展望
    5.1 结论
    5.2 展望
参考文献
攻读学位期间取得的科研成果
致谢

(9)基于图像增强与多特征的煤矿井下火灾烟雾检测方法研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 矿井火灾探测技术
        1.2.2 煤矿井下视频图像增强方法
        1.2.3 计算机视觉烟雾检测方法
        1.2.4 研究现状评述
    1.3 主要研究内容及技术路线
        1.3.1 研究内容
        1.3.2 技术路线
    1.4 论文创新点
2 视频火灾烟雾检测相关技术
    2.1 相关数字图像处理算法
        2.1.1 颜色空间转换
        2.1.2 腐蚀和膨胀操作
        2.1.3 图像滤波
    2.2 SVM支持向量机
        2.2.1 线性支持向量机
        2.2.2 非线性支持向量机及核函数
    2.3 本章小结
3 煤矿井下图像增强算法
    3.1 煤矿井下图像特点分析
    3.2 基于RETINEX算法的图像增强框架
        3.2.1 单尺度retinex图像增强算法(SSR)
        3.2.2 多尺度retinex图像增强算法(MSR)
        3.2.3 带有颜色保护的多尺度retinex图像增强算法(MSRCP)
    3.3 基于改进MSRCP的煤矿井下图像增强算法设计
        3.3.1 粒子群优化算法分析
        3.3.2 基于改进的MSRCP矿井图像增强模型构建
        3.3.3 改进矿井图像增强算法分析
    3.4 本章小结
4 矿井烟雾特征分析与融合判定方法
    4.1 矿井运动目标提取算法
        4.1.1 帧间差分法
        4.1.2 基于背景更新的矿井运动目标提取
    4.2 矿井烟雾的动态特征分析
        4.2.1 巷道烟雾飘动方向
        4.2.2 背景模糊度
    4.3 矿井烟雾的静态特征分析
        4.3.1 矿井烟雾的颜色特征
        4.3.2 矿井烟雾纹理特征提取
        4.3.3 矿井烟雾HOG特征提取
    4.4 基于SVM的矿井烟雾特征融合及判定
    4.5 本章小结
5 实验仿真与分析
    5.1 矿井烟雾检测流程
    5.2 矿井图像增强结果与分析
    5.3 烟雾检测实验仿真与分析
    5.4 本章小结
6 结论与展望
    6.1 研究结论
    6.2 研究展望
参考文献
攻读硕士期间的学术成果
致谢

(10)面向机器人操作的物体检测与位姿估计方法研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 物体检测研究现状
        1.2.2 位姿估计研究现状
    1.3 主要研究内容以及创新点
        1.3.1 研究内容
        1.3.2 创新点
    1.4 论文组织结构
第二章 特征点算法相关技术概述
    2.1 引言
    2.2 兴趣点检测
        2.2.1 Harris角点检测
        2.2.2 FAST角点检测算法
    2.3 特征点算法
        2.3.1 SIFT特征点算法
        2.3.2 SURF特征点算法
        2.3.3 BRIEF算法
        2.3.4 ORB特征点算法
    2.4 计算机视觉相关几何
        2.4.1 四个坐标系
        2.4.2 双目视觉系统成像模型
        2.4.3 位姿估计
    2.5 本章小结
第三章 一种新的图像特征描述子
    3.1 引言
    3.2 多邻域方法思想
    3.3 MNSTF算法
        3.3.1 局部结构张量
        3.3.2 旋转不变性
        3.3.3 MNSTF特征描述子
    3.4 实验与分析
        3.4.1 MNSTF算法实验分析
        3.4.2 MNSTF遮挡实验
        3.4.3 参数敏感性分析
    3.5 MNSTF算法优缺点
    3.6 本章小结
第四章 基于MNSTF算法的物体检测与位姿估计
    4.1 引言
    4.2 基于MNSTF特征的立体匹配算法
        4.2.1 双目视觉的约束条件
        4.2.2 立体匹配算法步骤
    4.3 基于MNSTF算法的物体检测
    4.4 基于MNSTF算法的位姿估计
    4.5 实验与分析
        4.5.1 基于MNSTF算法的立体匹配实验与分析
        4.5.2 基于MNSTF算法的位姿估计实验与分析
    4.6 本章小结
第五章 基于ZED双目相机的视觉系统搭建
    5.1 引言
    5.2 实验系统硬件组成
    5.3 视觉相关的准备工作
        5.3.1 ZED双目相机标定
        5.3.2 手眼标定
    5.4 实验系统的软件结构设计
        5.4.1 基础模块
        5.4.2 物体检测模块
        5.4.3 位姿估计模块
    5.5 实验与分析
        5.5.1 物体检测实验
        5.5.2 位姿估计实验
    5.6 本章小结
第六章 总结与展望
    6.1 本文工作总结
    6.2 进一步研究展望
参考文献
致谢
附录 攻读硕士学位期间撰写的论文

四、基于图像纹理分析的目标物体识别方法(论文参考文献)

  • [1]复杂交通场景下轻量化视觉感知方法研究[D]. 刘步实. 北京交通大学, 2021(02)
  • [2]基于视觉的采摘机器人目标识别与定位方法研究综述[J]. 郑太雄,江明哲,冯明驰. 仪器仪表学报, 2021(09)
  • [3]基于高光特征的表面粗糙程度检测及其应用[D]. 张柏行. 广西大学, 2021(12)
  • [4]基于图像特征分析的冰雹检测方法的研究[D]. 张思炜. 南京信息工程大学, 2021(01)
  • [5]基于图像的纹理粗糙度力触觉反馈系统设计[D]. 徐超义. 南京信息工程大学, 2021(01)
  • [6]基于激光雷达成像的煤矸智能分选技术研究[D]. 赵子默. 西安工业大学, 2021(02)
  • [7]基于无人机航拍图像的植物种类智能识别研究[D]. 刘炫麟. 中南林业科技大学, 2021(01)
  • [8]基于视觉检测的机器人按需求搬移工件系统研究[D]. 王书宇. 太原理工大学, 2021
  • [9]基于图像增强与多特征的煤矿井下火灾烟雾检测方法研究[D]. 白宝军. 西安建筑科技大学, 2021(01)
  • [10]面向机器人操作的物体检测与位姿估计方法研究[D]. 程鹏飞. 北京邮电大学, 2021(01)

标签:;  ;  ;  ;  ;  

基于图像纹理分析的目标物体识别方法
下载Doc文档

猜你喜欢