兴趣点检测与图像匹配技术研究

兴趣点检测与图像匹配技术研究

一、兴趣点检测和图像匹配技术的研究(论文文献综述)

雷嫚[1](2021)在《基于局部特征提取和描述的图像匹配算法研究》文中研究指明

李彦锋[2](2020)在《基于深度学习的光学和SAR图像配准》文中研究说明图像配准的主要目标是针对同一目标场景在不同视角、传感器、光照等影响下对应的两幅或多幅图像进行映射、对齐、拼接。图像配准在地理、农业、军事、遥感、生物学中都有着广泛的应用。图像配准作为计算机视觉和图像处理领域的基本问题受到了广泛的关注。已有许多经典的算法被相继提出用来解决这一问题。例如SIFT、FAST等算法。这些算法的共同特点是需要人为设计特征提取的方法,手工筛选特征。这些方法在光学图像和SAR图像匹配、配准任务中取得了长足进步。而随着深度学习技术的普及,手工设计特征的步骤逐步被深度神经网络所取代。许多基于深度学习的方法被提出并应用于配准领域。所以本文重点集中于研究深度学习在图像匹配、配准领域的应用。本文研究了基于深度学习的图像配准任务中的关键技术,围绕图像块匹配、光学图像匹配、配准和光学与SAR图像配准任务进行了深入分析和研究。本文主要工作如下:1.提出一种基于指数损失的图像块匹配方法。该方法从损失函数的角度考虑对不同困难样本的加权,从而使网络对于困难样本有更高的关注度,而对于简单样本施加更小的权重,加速网络优化。实验表明该方法在度量学习和描述子学习任务中都取得了较好的结果。2.提出了一种基于多尺度高分辨的双阶段图像匹配网络来实现光学图像的匹配。为充分运用不同深层网络的特征,提出一种基于注意力机制的特征学习网络,进一步通过加权融合提高了可重复特征点数目。3.提出了一种简洁高效的特征提取网络CRNet,通过在多组数据集进行实验,验证了单层的特征提取网络也有着较好的匹配结果。进一步分析了双阶段匹配网络的性能同时受限于图像块尺度、角度以及描述子的学习。4.通过改进单阶段检测网络D2Net,提出一种多尺度融合方法来聚合特征点实现光学与SAR图像配准。进一步分析了描述子维度和描述子类型对配准结果的影响,有效提高了光学与SAR图像配准的精度。

王培[3](2019)在《基于特征属性的人体行为检测与识别研究》文中进行了进一步梳理随着视频监控、智能家居和智能驾驶等领域的高度发展,人体行为检测与识别展现出庞大的市场需求和极大的科研价值。实际应用中,视频的拍摄角度、背景光线、人体特征的多变性与人体各行为间的联系等诸多因素,使得基于特征属性的人体行为检测与识别成为研究人员关注的重点。本文提出了一种基于特征提取的偶见动作行人检测的方法,针对因行人肢体动作过大,如弯腰、蹲下等导致识别率降低的问题,弥补了现有技术的不足,在行人数据上进行测试分析,并采用其他方法再度实验对比,使得该方法的有效性得到了充分的证明。提出了一种基于张量的图匹配行为识别方法,考虑到空间和时间复杂性的问题,首先从原始视频中提取特征,经过一定的处理,形成高阶特征描述符;利用提取的高阶特征进行学习训练,通过学习算法实现分类并在公开的行为数据上进行测试,实验结果验证了该方法的有效性。提出了一种基于特征学习图匹配的行为识别方法,该方法的关键是学习类模型图,从而完成匹配识别。结合结构化支持向量机和中层SIFT特征进行学习,并在KTH和UCF50行为数据集上进行了实验,同时选取不同的算法进行实验分析对比。统计结果表明此方法的识别性能突出,验证了基于特征学习图匹配的行为识别方法的有效性。

王贤辰[4](2019)在《基于空谱域局部特征的高光谱图像描述及其在目标探测中的应用》文中提出高光谱图像描述是对高光谱图像进行有效分类和目标探测的基础。成像设备技术的发展,使得高分辨率高光谱图像的空谱域局部特征能够提供更丰富的图像信息。本文结合高分辨高光谱图像的特性,对基于空谱域局部特征的高光谱图像描述的关键技术展开深入研究,并将其应用于高分辨率高光谱图像目标探测。主要工作包括以下四个方面:(1)提出了一种基于几何代数的高光谱图像空谱域SURF特征检测和描述算法。特征点检测是高光谱图像描述,进而实现精准分类与目标探测的前提。我们从高光谱数据特点出发,采用几何代数作为数学分析工具,建立了高光谱图像空谱域表示模型;在该模型上,提出了一种高光谱图像几何代数空间的Hessian矩阵生成方法。在此基础上,提出了一种基于几何代数的高光谱图像空谱域SURF特征检测和描述算法,增强了局部特征的独特性和仿射不变性,提高了高光谱图像局部描述的准确性。(2)提出了一种二维图像的双局部约束线性编码算法和一种高光谱图像的空谱域双局部约束线性编码算法。图像局部特征约束性编码是局部特征与视觉词汇向量之间的联系纽带,是基于局部描述进行图像分类和目标探测的核心步骤。本文利用局部特征点空间的相关性,引入一种二维图像的双局部约束线性编码算法,降低了特征点与词典单词之间映射的模糊性,增强了对二维图像的表示能力。在此基础上,进一步提出了一种高光谱图像上的空谱域双局部约束线性编码算法,该算法在利用视觉单词对高光谱图像局部特征线性约束的同时,引入了高光谱图像的相邻波段的局部相关信息,并将其作为特征点到词典单词映射的判别约束。该算法将兴趣点邻域的空间信息和光谱信息结合起来,减少了特征编码过程中同义性和多义性问题,增强了对高光谱图像的描述能力。(3)提出了高光谱图像空谱域金字塔匹配模型和梯度方向金字塔匹配模型。优化特征组合能够提高特征向量对图像的表达力,是高光谱图像描述领域的一个重要课题。目前常用的高光谱图像局部特征组合模型,是经典的空间金字塔匹配模型。空间金字塔匹配模型,对高光谱图像在空间域进行切分,在细分空间内对特征进行组合,能够将空间信息编码到特征向量中。然而,这种简单的切分方式忽略了光谱域分布和光谱域相关性等局部特征的重要信息,导致传统特征组合模型鲁棒性不高。针对一般的高光谱图像和纹理或者形状非常接近的物体的高光谱图像,我们利用高光谱图像空谱域相关性和梯度信息,分别设计出两种不同的局部特征组合方式,即高光谱图像空谱域金字塔匹配模型和梯度方向金字塔匹配模型,提升图像表示的准确性。(4)提出了一种基于多尺度区域匹配的高分辨率高光谱图像的目标探测算法。传统的高光谱图像目标探测算法主要是面向低分辨率的卫星遥感高光谱图像,难以有效的处理高分辨率高光谱图像。基于多尺度区域匹配的高分辨率高光谱图像的目标探测算法,基于高分辨率高光谱图像的区域相关信息,利用前述章节提出的高光谱图像描述技术,采用滑动窗口遍历高光谱图像,通过空谱域立体匹配模型在滑动窗口内搜索疑似目标区域。在疑似目标区域采用更小尺度的滑动窗口进行目标探测,通过融合多尺度窗口区域和目标的相似度精确定位目标。提升目标识别的性能,以增强目标识别的准确性和鲁棒性。

杨燕[5](2019)在《复杂场景图像特征分析与匹配方法研究》文中研究说明图像匹配是评价不同条件下获取的两幅或多幅图像相似性以建立对应关系的技术。该技术在国防军事、航空航天、医学诊断等相关领域得到了广泛应用。在武器装备和导航领域,通常对图像匹配的可靠性要求较高,在实时匹配前需要确定各种场景条件下局部特征的稳定性、不变性和分辨能力等方面的综合性能指标,还要针对特定场景进行预先分析,确定具体点特征匹配的正确率和虚警率等性能参数,以便精确定位和匹配在不同场景中的对应特征点,从而提高实时在线阶段的图像匹配速度,降低误匹配率。然而,在复杂场景条件下,光照、尺度等成像条件变化,伪装、相似背景干扰等环境因素的存在,严重影响了图像特征的稳定性、分辨能力和图像匹配方法的性能,现有图像匹配方法在匹配精度、匹配查全率和匹配效率等方面仍存在较大挑战。为提高包含重复结构的复杂场景局部特征的匹配性能,本文在特征稳定性和显着性研究工作的基础上,从局部和整体两个方向拓宽了分析范围,通过研究局部区域特征显着性分析方法和整体综合特征性能评价方法,克服复杂场景中的重复结构相似特征误匹配率高、查全率和利用率低的问题。本文的主要创新工作如下:(1)研究复杂场景条件下的特征分析和高效图像匹配方法。针对复杂场景中重复结构引起的误匹配率高的问题,本文提出一种基于局部特征分析的多区域半随机采样一致性匹配方法。该方法首先在特征分析过程中,研究场景变化对局部特征稳定性的影响,实现稳定特征的筛选;然后,定义一种描述特征分辨能力的评价指标,将稳定特征分为显着特征和非显着特征(重复特征)。在此基础上,从稳定特征匹配集中抽取分辨能力高的显着特征,并利用分区域半随机采样策略,在内点比例较高的显着特征匹配集内抽取可靠且空间分布合理的匹配样本,建立投影模型,以提高算法的性能。实验结果表明,在复杂场景条件下,本文提出的基于多区域半随机采样一致性匹配方法能够有效提高匹配速度和精度。(2)研究特征的区域显着性分析和基于区域分割的特征匹配方法。针对复杂场景条件下重复相似特征匹配利用率低的问题,本文提出一种基于显着性区域分析的特征匹配方法。该方法通过区域分割,降低重复相似特征的相互影响,实现特征显着性的增强;遵循显着性原则,选取分辨能力强的区域显着特征进行匹配,形成可靠种子点对;采用渐细Delaunay三角剖分策略,抑制由相似特征引起的匹配歧义,逐步增强特征显着性,提高特征的利用率,在不降低匹配精度的情况下,提高匹配查全率。实验结果表明,在存在重复结构的复杂场景条件下,通过特征的区域显着性分析,选择显着特征的可靠匹配集作为种子点对,可实现区域的精确分割,有效消除不同区域内相似特征的匹配歧义,提高重复相似特征匹配利用率,获得较高的匹配精度和查全率。(3)研究局部特征分析和综合性能评价策略。为在实时匹配前,确定各种场景条件下局部特征的匹配性能,综合分析和评价特征的不变性、稳定性、显着性以及特征点对与投影模型的相容性,本文基于结构预测的特征分析方法,结合特征显着性分析,通过结构化权重训练,利用训练生成的评分标准综合评价特征性能,实现特征的分析和评价。实验结果表明,利用基于结构预测的特征分析方法,训练生成的特征评分标准具有综合评价特征性能的能力,可作为特征选择和模型一致性验证依据,并有效提高匹配算法性能。

刘端[6](2020)在《基于图像特征点的浮选泡沫动态特征提取方法研究》文中研究表明泡沫浮选是从矿石中提取所需矿物的常用方法,从杂质中分离出来的矿物质吸附在矿浆中的泡沫上面,因此泡沫的状态变化的研究极为重要。以往的判断方式为人工肉眼观察,当浮选泡沫体现出稳定性和不易坍塌性则证明添加的药剂符合分离条件,但是人工的不确定性和经验强度要求的特性,使得计算机自动控制逐渐应用在浮选中。由于浮选泡沫局部纹理、颜色、大小等静态特征相似,难以很好的用于浮选工况识别,因此研究浮选泡沫的动态特征,并能实时提取,对于浮选工况识别具有重要意义。针对浮选泡沫运动过程中容易发生崩塌、兼并、扭曲等现象,泡沫浮选的速度特征及内部混乱熵特征的提取可以更好地识别不同工况下的浮选泡沫状况。浮选泡沫的运动是连续的,且在不断运动中泡沫状态会连续发生变化,在连续帧的识别与匹配状况下能更好的判别实际状态。计算机自动控制应用于浮选泡沫动态特征提取是从特征点提取及匹配角度出发,通过提高算法提取及匹配能力进而获取浮选泡沫的动态特征。论文主要研究工作及创新点如下:(1)针对浮选泡沫特征点提取准确率问题,我们将传统的特征点提取算法SURF(快速鲁棒尺度不变特征提取算法)算法和深度学习算法SuperPoint(Self-Supervised Interest Point Detection and Description)运用到浮选泡沫工况中,针对于金锑浮选泡沫特征点提取的研究,使用72维的SURF算法相比于其它的传统特征点提取算法效果最好,同时将深度学习算法应用于浮选泡沫特征点提取和SURF-72算法进行方法对比。由于深度学习算法具有多层迭代及逆反馈的优越性,可以很好的提取动态连续帧的特征点,通过与传统特征点提取算法进行多维度实验对比,验证深度学习算法在浮选泡沫图像特征点提取中效果更好。(2)针对浮选泡沫连续运动的特点和特征点匹配准确率问题,提出一种基于卡尔曼滤波和RANSAC算法的浮选泡沫特征匹配方法,称为R-K匹配算法。首先针对传统72维的SURF特征点提取算法进行特征点的提取,然后通过浮选泡沫图像子块划分以及卡尔曼算法进行子块区域预测,将RANSAC算法获得的初始匹配对作为卡尔曼滤波算法的初始观测值,实时观测特征值的数量,进行匹配误差计算,当误差到一定范围内便停止RANSAC算法的使用,仅使用卡尔曼滤波算法,最终得到浮选泡沫图像的匹配效果图。并对该算法进行鲁棒性验证,以确认其有效性和实用性。(3)工业实验数据的仿真结果表明,与现有方法相比,R-K算法可以得到更多的特征点匹配对,在特征点提取与匹配效果提升的前提下,计算浮选泡沫的运动速度和内部熵的混乱程度,泡沫的稳定、紊乱及坍塌三种情况在该算法的使用下可以很好的区分开来。因此,该算法可以在变化的状态下更有效的获得有关浮选泡沫更准确的动态信息,为计算机自动控制判断浮选工况提供了一种可行的办法。

彭伟峰[7](2018)在《基于潜在语义特征的图像美学评价研究》文中提出图像美学评价旨在令计算机模拟人类的主观审美思维对图像进行美学价值的评估与判断,是一项非常具有挑战性的课题,尚没有统一的评价标准。可计算美学评价是目前主要的研究方法,但由于特征简单而存在与人的主观感知相关性低的问题。本文针对现有的图像美学评价方法只注重图像手工特征的提取,评价效果严重依赖于图像主体区域识别效果并且美学分类准确率偏低的问题,提出了一个基于潜在语义特征的可计算图像美学评价模型。通过对图像进行超像素分割提取兴趣点密度加权的局部手工特征,对手工特征进行特征映射编码处理,得到图像的潜在语义特征和语义特征,利用机器学习方法建立图像美学评价模型,最终实现了机器自动评估图像美感度的高低。本文以图像美学的分类评价为研究重点,主要工作和创新性如下:首先,提出了一种图像美学评价特征——潜在语义特征。类似于文档领域的潜在语义分析,潜在语义特征是用来衡量图像美学特征向量之间的相似性和共现性的一种特征。通过对美学特征向量进行单词映射编码得到美学特征词汇文档,并利用潜在狄利克雷分布(Latent Dirichlet Allocation,LDA)模型计算特征词汇文档的潜在主题词,然后统计特征词汇文档与主题词汇之间的相似性得到潜在语义特征。其次,设计了基于兴趣点密度加权的超像素分块算法用于提取图像的局部手工特征。通过加权超像素引入图像空间属性,克服手工特征的空间信息丢失问题,大大减少特征维度;并且通过兴趣点密度来衡量图像局部区域的复杂度,使得提取的图像特征与美学复杂度属性相关。最后,为了进一步提高图像美学分类模型效果,使用图像分类识别领域的基于局部约束的线性编码(Locality-constrained Linear Coding,LLC)方法对局部手工特征进行特征映射编码,得到图像的美学语义特征。通过潜在语义特征与语义特征组合进行图像美学评价。本文算法通过在AVA数据库进行实验,使用准确率混淆矩阵和ROC曲线作为训练分类模型的性能评价指标来衡量本文算法的有效性。与其他美学评价方法进行对比,实验结果表明本文提出的潜在语义特征用来图像美学评价是有效的,潜在语义特征跟语义特征组合可以很好地提升图像美学分类模型准确率。

卢健,黄杰,潘峰[8](2016)在《第二小方向导数信息熵的兴趣点检测》文中提出目的为了提高兴趣点检测的定位准确性和对噪声的鲁棒性,提出利用图像轮廓线及其邻域内像素点方向导数信息熵检测兴趣点的方法。方法首先利用多方向Gabor虚部滤波器提取图像灰度变化信息得到第二小方向导数。然后利用Canny边缘检测器提取边缘映射,并填补断裂边缘映射提取边缘轮廓线。最后求解图像边缘轮廓线及其邻域内像素点对应的第二小方向导数所对应的信息熵归一化值并作为新的兴趣点测度。和直接由灰度变化信息及分析边缘轮廓形状或曲率提取兴趣点的方法相比,本文算法结合了两种算法的思想,利用轮廓线上及其邻域内的像素点梯度方向信息熵值作为兴趣点测度。同时不同于同质及边缘区域的梯度方向变化,兴趣点处的梯度方向变化信息呈现各向异性的特性,利用兴趣点第二小方向导数(第一小方向导数可能为零)对应的信息熵值作为新的兴趣点测度可提高算法的定位准确性.结果通过对检测图像进行仿射变换和加入高斯噪声处理后,分别利用Harris算子、CSS算子、He&Yung算子和本文算法提取图像兴趣点,并比较各算法在仿射变换和高斯噪声情况下检测到的兴趣点的平均重复率和定位误差两个性能指标的平均值。其中本文算法的性能指标平均值为1.625,远高于Harris(3.25)、He&Yung(2.625)和CSS(2.5)三大兴趣点检测算子。结论通过与典型的3种算法相对比,本文算法具有较好的平均重复率及噪声鲁棒性,尤其是图像在外界干扰的旋转变换和尺度变换下对兴趣点的定位性有着更好的检测性能。

莫小锋[9](2015)在《基于图像增强技术的SURF图像匹配方法研究》文中进行了进一步梳理为了快速有效的对图像进行变化检测、融合和拼接等处理内容,首先需要对采集到的图像进行精确的配准。在大雾天气情况下,天空的能见度比较低,这时成像设备获取到的图像给人眼的视觉效果比较差。进行图像分析处理时,得到的图像信息量比较少,用一般的图像匹配方法无法得到高精度的匹配结果。本文以与图像处理有关的理论知识为基础,对图像增强、图像结构特征的提取、相似三角形的距离比例不变性和图像匹配的相关技术和基本理论进行了逐步深入的研究。文中对兴趣点检测算子Moravec、角点提取算子Harris、基于灰度特征的SUSAN检测算子和基于尺度不变特征的SIFT(Scale Invariant Feature Transform)检测算法进行了详细的叙述。并通过仿真实验,验证了 SIFT算法在进行特征检测时,它对图像中存在的角度旋转变化、图像大小的改变、光线强弱的变化等保持不变性,对外界的噪声干扰也具有很强的抵抗性。但是SIFT算法对提取出的特征点进行描述时,使用了高达128维的描述符向量,这无疑增加了特征点之间相似性度量函数的运算量,而且采用SIFT算法匹配好的特征点中存在很多伪匹配点的问题。本文将图像增强算法MSR(Multi-Scale Retinex)结合快速的SURF(Speeded Up Robust Feature)匹配算法对雾天遥感图像进行匹配研究,提出了一种基于图像增强技术的SURF图像匹配方法。首先用MSR图像增强技术对雾天获取的图像进行增强,然后采用SURF算法完成特征点的检测,用欧氏距离度量特征点的相似性,最后根据相似三角形的距离比例不变性,剔除匹配性不高的点。仿真实验的结果表明,本文提出的方法显着改善了雾天图像对比度差的问题,丰富了图像内部的细节信息,在特征点检测和提取过程中得到了很多信息量丰富的特征点,匹配结果得到了明显的改善。经过对匹配性不高点的删除,进一步提高了图像特征点的匹配精度,为图像进行变化检测、融合和拼接提供了良好的基础。

黄雅兰[10](2014)在《基于特征点的图像匹配技术研究与应用》文中研究表明图像匹配是指通过某种方法在几幅图像之间寻找同名点的过程,作为图像信息处理领域内的一项极为关键的技术,它已经被广泛地应用于机器视觉领域、对运动目标的检测领域、医学分析领域、工业检测领域等等,而用于图像匹配的两个图像或几个图像通常是摄像机在不同时间,不同角度,不同地点,不同天气下所拍摄的具有相同对象的图像。在具体的图像匹配应用领域,往往是对包括清晰度、遮挡度、噪声污染等不同复杂性的多个图像之间进行图像的匹配。因此,我们的目标是寻求一个精度高、实时性好的图像匹配方法。当前主要有基于图像灰度和基于图像特征这两种用于匹配图像的方法,第一种匹配方法实现简单、容易掌握,且匹配精度良好,但是不具有抗旋转性、抗尺度变换性及抗缩放性;第二种匹配方法适用于大多数的应用领域,但是匹配时的计算量大,匹配方法复杂。本文着重研究了基于特征的匹配方法,重点特征提取的方法,对既存的特征提取算法进行改进,以求能够实现一种精度高、实时性好的图像匹配算法。论文的主要研究内容有:(1)对图像匹配的基本方法进行学习,深入研究了基于特征的图像匹配方法,以便能够掌握经典的局部特征检测算法的检测原理,并对使用局部特征作为图像特征点的匹配算法的匹配性能进行了剖析。(2)针对商标图像搜索时使用SIFT特征检测方法的局限性,提出了一种将SIFT特征检测子和Harris特征检测子相结合的方法,在该方法中,使用计算SIFT特征描述子的方法来求得Harris特征点的特征描述子,该方法利用了检测图像的角点计算量小、用时少、特征点分布均匀的优点。实验证明,使用基于SIFT特征和Harris特征的方法提取商标图像的特征,具有高效性、实时性的特点。(3)对存在较大仿射角度的彩色图像之间的匹配问题,使用经典SIFT算法能够提取较多的特征点,但是提取特征点的时间很长;而使用SURF算法对图像进行匹配时,图像之间的错配率较高并且不能充分利用原图像的彩色信息。因此,本文提出了一种具有仿射不变性的彩色图像匹配方法,该方法通过对原图像进行仿射变换而得到一系列的图像序列,然后计算这些图像的颜色不变量,最后对其进行特征点的检测和特征点的匹配。实验证明,使用本文方法提取特征点用时更短且匹配率更高,能够很好地解决彩色图像匹配过程中由于仿射角度过大引起的误匹配问题。

二、兴趣点检测和图像匹配技术的研究(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、兴趣点检测和图像匹配技术的研究(论文提纲范文)

(2)基于深度学习的光学和SAR图像配准(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 研究背景和意义
    1.2 研究现状
        1.2.1 光学图像匹配
        1.2.2 SAR图像配准
    1.3 基于手工方法的图像配准
        1.3.1 特征提取
        1.3.2 特征匹配
        1.3.3 几何变换
        1.3.4 配准图像的重采样及配准
        1.3.5 配准结果的评价
    1.4 基于学习的配准方法
        1.4.1 深度神经网络技术简介
        1.4.2 基于深度神经网络的配准方法
    1.5 论文研究内容与组织结构
第二章 基于指数损失的图像块匹配
    2.1 基于深度学习的度量学习
    2.2 基于深度学习的描述子学习
    2.3 基于指数损失的图像块匹配
        2.3.1 损失函数介绍
        2.3.2 困难样本挖掘策略
        2.3.3 双分支与三分支网络设计
        2.3.4 实验分析与结果
    2.4 本章总结
第三章 基于HRNet的图像匹配
    3.1 基于深度学习的图像匹配
        3.1.1 基于深度学习的关键点检测器
        3.1.2 基于深度学习的描述子学习
        3.1.3 基于深度学习的方向学习
    3.2 基于HRNet的图像匹配
        3.2.1 HRNet结构介绍
        3.2.2 基于HRNet的特征点检测
        3.2.3 加权特征融合以及特征提取
    3.3 基于Attention机制的特征点学习
        3.3.1 基于通道注意力机制的特征点检测
        3.3.2 基于空间注意力机制的特征点检测
        3.3.3 基于混合注意力机制的特征点检测
    3.4 本章总结
第四章 基于深度学习的光学图像配准
    4.1 CRNet结构介绍
    4.2 损失函数介绍
        4.2.1 均方误差损失
        4.2.2 距离损失
        4.2.3 描述子损失
        4.2.4 近邻比损失
    4.3 实验结果
        4.3.1 CRNet与RFNet对比
        4.3.2 基于特征层融合的CRNet
        4.3.3 图像块尺度对结果的影响
        4.3.4 不同网络层数对检测性能的影响
    4.4 配准结果与分析
    4.5 本章总结
第五章 基于端到端网络的SAR图像配准
    5.1 基于CRNet的SAR图像匹配
        5.1.1 训练数据获取与制作
        5.1.2 训练平移变换数据
        5.1.3 训练旋转变换数据
        5.1.4 训练仿射变换数据
    5.2 基于深度学习的光学与SAR图像配准
        5.2.1 基于CRNet的光学和SAR图像配准
        5.2.2 基于D2Net的光学和SAR图像配准
        5.2.3 基于多尺度D2Net的光学和SAR图像配准
    5.3 实验分析
        5.3.1 描述子维度对配准性能的影响
        5.3.2 二值描述子对配准性能的影响
    5.4 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
致谢
作者简介

(3)基于特征属性的人体行为检测与识别研究(论文提纲范文)

摘要
abstract
专用术语注释表
第一章 绪论
    1.1 选题背景及意义
    1.2 相关技术研究现状
        1.2.1 行人检测研究现状
        1.2.2 行为识别研究现状
    1.3 本文的内容结构
第二章 行人检测与行为识别数据集
    2.1 行人检测数据集
    2.2 行为识别数据集
第三章 基于特征属性的偶见动作行人检测
    3.1 引言
    3.2 特征提取
        3.2.1 图像预处理
        3.2.2 HOG特征提取
    3.3 SVM训练
    3.4 实验结果与分析
        3.4.1 创建标准数据集
        3.4.2 实验与结果分析
    3.5 本章小结
第四章 基于高阶特征图匹配的行为识别方法
    4.1 引言
    4.2 特征提取
        4.2.1 预处理
        4.2.2 SIFT特征描述
        4.2.3 高阶特征描述行为特征
    4.3 基于高阶特征图匹配的识别算法
    4.4 实验结果与分析
        4.4.1 UT-Interaction数据
        4.4.2 实验结果
    4.5 本章小结
第五章 基于特征学习图匹配的行为识别方法
    5.1 引言
    5.2 行为特征的中层表示
    5.3 中层行为特征学习匹配
        5.3.1 学习特征图模型
        5.3.2 基于图匹配的识别算法
    5.4 实验结果与分析
        5.4.1 KTH行为数据集
        5.4.2 实验结果
    5.5 本章小结
第六章 总结与展望
    6.1 本文总结
    6.2 研究工作展望
参考文献
附录 攻读硕士学位期间申请的专利
致谢

(4)基于空谱域局部特征的高光谱图像描述及其在目标探测中的应用(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及意义
        1.1.1 研究背景
        1.1.2 应用领域
    1.2 国内外研究现状
        1.2.1 高光谱图像空谱域局部描述的研究现状
        1.2.2 高光谱图像目标探测研究现状
    1.3 论文的结构和主要贡献
        1.3.1 论文的内容安排
        1.3.2 本文的主要创新点
第2章 基于几何代数的高光谱图像空谱域SURF特征检测和描述算法
    2.1 引言
    2.2 几何代数基础知识
    2.3 基于几何代数的高光谱图像空谱域SURF特征检测算法
        2.3.1 高光谱图像空谱域几何代数模型
        2.3.2 基于几何代数的高光谱图像空谱域SURF特征检测算法
    2.4 基于几何代数的高光谱图像空谱域SURF特征描述算法
        2.4.1 确定基于几何代数的高光谱图像空谱域SURF特征主方向
        2.4.2 构造基于几何代数的高光谱图像空谱域SURF特征描述算子
    2.5 实验
        2.5.1 匹配实验
        2.5.2 分类实验
    2.6 本章小结
第3章 高光谱图像的空谱域双局部约束线性编码算法
    3.1 引言
    3.2 二维图像的双局部约束线性编码
        3.2.1 问题综述
        3.2.2 双局部约束线性编码算法
        3.2.3 实验
        3.2.4 结论
    3.3 高光谱图像的空谱域双局部约束线性编码
        3.3.1 问题综述
        3.3.2 高光谱图像空谱域的相关性
        3.3.3 空谱域双局部特征约束性编码算法
        3.3.4 实验
        3.3.5 结论
    3.4 本章小结
第4章 高光谱图像金字塔匹配模型
    4.1 引言
    4.2 高光谱图像空谱域金字塔匹配
        4.2.1 特征描述与组合
        4.2.2 高光谱图像空谱域金字塔匹配
    4.3 高光谱图像梯度方向金字塔匹配
        4.3.1 问题综述
        4.3.2 高光谱图像梯度分析
        4.3.3 高光谱图像梯度方向金字塔匹配
    4.4 实验
        4.4.1 实验设置
        4.4.2 结果与分析
        4.4.3 结论
    4.5 本章小结
第5章 基于多尺度区域匹配的高分辨率高光谱图像目标探测算法
    5.1 引言
    5.2 基于多尺度区域匹配的高分辨率高光谱图像目标探测算法
        5.2.1 算法框架
        5.2.2 空谱域立体匹配模型搜索疑似目标区域
        5.2.3 融合多尺度窗口精确定位目标
    5.3 实验
        5.3.1 数据集
        5.3.2 实验设置
        5.3.3 结果与分析
    5.4 本章小结
第6章 总结与展望
    6.1 本文主要工作
    6.2 下一步研究方向
参考文献
致谢
攻读博士学位期间的研究成果

(5)复杂场景图像特征分析与匹配方法研究(论文提纲范文)

摘要
ABSTRACT
主要符号表
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 点特征提取技术研究现状
        1.2.2 特征匹配技术研究现状
        1.2.3 投影模型估计技术研究现状
    1.3 主要研究内容及论文章节安排
        1.3.1 主要研究内容
        1.3.2 论文章节安排
2 特征匹配与模型估计原理
    2.1 SIFT特征提取方法
    2.2 点特征匹配方法
        2.2.1 最近邻比值匹配方法
        2.2.2 自匹配方法
        2.2.3 镜像匹配方法
        2.2.4 双向匹配方法
    2.3 投影模型估计经典方法
        2.3.1 单应投影模型
        2.3.2 随机采样一致性方法
        2.3.3 渐近采样一致性方法
    2.4 本章小结
3 基于局部特征分析的多区域半随机采样一致性匹配
    3.1 引言
    3.2 基于场景模拟和训练的特征分析与匹配
        3.2.1 稳定特征筛选及其分辨力评价
        3.2.2 基于特征分析的局部特征匹配
        3.2.3 基于多区域的半随机采样一致性方法
    3.3 图像匹配处理步骤和算法描述
        3.3.1 特征分析步骤
        3.3.2 图像匹配步骤及算法描述
    3.4 实验结果与分析
        3.4.1 数据集与实验环境
        3.4.2 场景模拟与训练图像生成
        3.4.3 基于场景模拟的特征分析性能
        3.4.4 基于多区域的半随机采样一致性特征匹配性能
    3.5 本章小结
4 基于区域显着性分析的特征匹配
    4.1 引言
    4.2 特征的区域显着性分析
        4.2.1 特征显着性的区域属性
        4.2.2 特征区域显着性分析
        4.2.3 基于区域分割的特征显着性增强
    4.3 基于特征区域显着性的区域分割和匹配方法
        4.3.1 种子点对可靠性问题
        4.3.2 种子点对的可靠提取
        4.3.3 区域分割及特征匹配
    4.4 实验结果与分析
        4.4.1 区域分割分析实验结果
        4.4.2 匹配性能分析实验结果
    4.5 本章小结
5 基于结构预测的点特征分析与图像匹配
    5.1 引言
    5.2 结构化学习方法
        5.2.1 问题定义
        5.2.2 最大化间隔和结构化方法
    5.3 基于结构输出预测的点特征分析
        5.3.1 结构输出预测的RANSAC设计
        5.3.2 基于线性结构预测的点特征分析
        5.3.3 结构化特征学习
        5.3.4 特征显着性分析
    5.4 点特征分析流程
    5.5 实验结果与分析
        5.5.1 基于结构预测点特征分析性能
        5.5.2 基于结构预测点特征分析的匹配性能
    5.6 本章小结
6 结论与展望
    6.1 结论
    6.2 创新点
    6.3 展望
参考文献
攻读博士学位期间科研项目及科研成果
致谢
作者简介

(6)基于图像特征点的浮选泡沫动态特征提取方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及其意义
    1.2 浮选泡沫动态特征研究现状
        1.1.1 浮选泡沫运动特征
        1.1.2 浮选泡沫稳定度特征
    1.3 深度学习在浮选工况中的研究与发展
    1.4 主要研究内容与论文结构
第2章 SURF提取浮选泡沫图像特征点
    2.1 引言
    2.2 基于SIFT算法的特征点提取
    2.3 基于SURF算法的特征点提取
    2.4 本章小结
第3章 SuperPoint算法提取浮选泡沫图像特征点
    3.1 引言
    3.2 基于SuperPoint的泡沫特征点提取
        3.2.1 SuperPoint介绍
        3.2.2 SuperPoint结构
        3.2.3 模型训练
        3.2.4 提取结果
    3.3 两种特征点提取结果比较
    3.4 本章小结
第4章 R-K算法:浮选泡沫特征点匹配方法
    4.1 引言
    4.2 R-K算法
        4.2.1 RANSAC算法
        4.2.2 卡尔曼滤波
    4.3 实验验证
        4.3.1 R-K算法鲁棒性验证
        4.3.2 两种提取算法实验对比
    4.4 工业实验验证
        4.4.1 特征点提取算法选取
        4.4.2 基于运动帧的浮选泡沫图像分析
    4.5 本章小结
第5章 总结
    5.1 本文总结
    5.2 研究展望
参考文献
附录A 攻读学位期间发表的论文与科研成果清单
致谢

(7)基于潜在语义特征的图像美学评价研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 课题的研究背景
    1.2 图像美学研究现状
    1.3 课题研究内容
    1.4 论文组织结构
第二章 超像素分块与手工特征提取
    2.1 图像分割算法
        2.1.1 均匀网格分块算法
        2.1.2 SEEDS算法
    2.2 兴趣点检测
        2.2.1 SIFT
        2.2.2 SURF
        2.2.3 ORB
    2.3 图像手工特征提取
        2.3.1 基于兴趣点密度加权的超像素分块算法
        2.3.2 颜色特征
        2.3.3 纹理特征
    2.4 本章小结
第三章 图像分类模型与主题分析模型
    3.1 图像分类模型
        3.1.1 BOVW模型
        3.1.2 ScSPM模型
        3.1.3 特征编码算法
    3.2 主题分析模型
        3.2.1 LDA模型
        3.2.2 潜在语义特征提取
    3.3 本章小结
第四章 图像美学分类模型构建
    4.1 图像美学分类方法
        4.1.1 SVM分类算法
        4.1.2 GMM模型
    4.2 美学分类评价指标
        4.2.1 混淆矩阵
        4.2.2 ROC曲线
    4.3 本章总结
第五章 美学分类实验结果及分析
    5.1 实验环境和实验数据库
        5.1.1 实验环境
        5.1.2 实验数据库
    5.2 实验结果和分析
        5.2.1 实验步骤
        5.2.2 实验参数分析
        5.2.3 实验结果
        5.2.4 分类性能分析
    5.3 对比分析
    5.4 本章总结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
致谢

(8)第二小方向导数信息熵的兴趣点检测(论文提纲范文)

0 引言
1 2 维Gabor滤波器及新兴趣点测度
    1. 1 2 维Gabor虚部滤波器
    1. 2 新兴趣点测度
    1. 3 算法的基本步骤
2 实验仿真与性能分析
3 结论

(9)基于图像增强技术的SURF图像匹配方法研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
    1.3 遥感图像匹配存在的问题
    1.4 本文的主要内容及各章节安排
第二章 图像匹配相关技术
    2.1 图像匹配算法概述
        2.1.1 图像匹配的定义
        2.1.2 图像匹配方法分类
        2.1.3 图像匹配的基本流程
    2.2 图像预处理
        2.2.1 雾霾图像判别方法
        2.2.2 图像增强技术
    2.3 图像匹配方法
        2.3.1 基于灰度信息的图像匹配
        2.3.2 基于变换域的图像匹配
        2.3.3 基于特征的图像匹配
    2.4 本章小结
第三章 基于特征的图像匹配算法
    3.1 特征点检测算法
        3.1.1 Moravec算法
        3.1.2 SUSAN算法
        3.1.3 Harris特征点检测算法
        3.1.4 SIFT特征点检测算法
    3.2 图像相似性度量方法
        3.2.1 向量间的距离度量
        3.2.2 最近邻距离比
    3.3 基于SIFT特征的图像匹配
    3.4 本章小结
第四章 基于MSR的图像增强算法
    4.1 雾天图像预处理
    4.2 MSR图像增强算法
    4.3 图像增强实验结果与分析
    4.4 本章小结
第五章 基于SURF的图像匹配算法
    5.1 特征点检测与提取
    5.2 特征点主方向确定及描述符生成
    5.3 特征点匹配
    5.4 匹配点筛选
    5.5 SURF算法匹配结果与分析
    5.6 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望与进一步研究
参考文献
致谢
附录A(攻读学位期间发表的论文)

(10)基于特征点的图像匹配技术研究与应用(论文提纲范文)

摘要
Abstract
目录
第一章 绪论
    1.1 课题研究的背景及意义
    1.2 图像匹配技术简介
        1.2.1 图像匹配技术研究现状
        1.2.2 图像变换的数学模型
        1.2.3 图像匹配方法分类
    1.3 性能评价标准
    1.4 论文研究内容及组织结构
第二章 基于特征的图像匹配技术
    2.1 图像特征简介
        2.1.1 几种常用的图像特征
        2.1.2 图像的不变性特征
    2.2 基于边缘特征的图像匹配方法
    2.3 基于点特征的图像匹配方法
        2.3.1 角点检测算子
        2.3.2 SIFT 算子
    2.4 本章小结
第三章 基于 SIFT 和 Harris 算子相结合的改进算法
    3.1 引言
    3.2 尺度空间理论
        3.2.1 尺度空间的数学定义
        3.2.2 高斯尺度空间的构造
        3.2.3 金字塔算法
    3.3 SIFT 算法
        3.3.1 SIFT 尺度空间
        3.3.2 SIFT 特征点检测
        3.3.3 计算特征描述子
        3.3.4 特征点的匹配
    3.4 基于 Harris 算子的改进方法
    3.5 实验结果及分析
    3.6 本章小结
第四章 具有仿射不变性的彩色图像匹配方法研究
    4.1 引言
    4.2 仿射不变性
    4.3 颜色不变量模型
    4.4 改进的 SURF 算法
        4.4.1 SURF 算法简介
        4.4.2 基于 SURF 算法的改进
    4.5 实验结果及分析
    4.6 本章小结
第五章 总结和展望
    5.1 全文工作总结
    5.2 下一步工作展望
参考文献

四、兴趣点检测和图像匹配技术的研究(论文参考文献)

  • [1]基于局部特征提取和描述的图像匹配算法研究[D]. 雷嫚. 东北石油大学, 2021
  • [2]基于深度学习的光学和SAR图像配准[D]. 李彦锋. 西安电子科技大学, 2020
  • [3]基于特征属性的人体行为检测与识别研究[D]. 王培. 南京邮电大学, 2019(02)
  • [4]基于空谱域局部特征的高光谱图像描述及其在目标探测中的应用[D]. 王贤辰. 深圳大学, 2019(11)
  • [5]复杂场景图像特征分析与匹配方法研究[D]. 杨燕. 大连理工大学, 2019(01)
  • [6]基于图像特征点的浮选泡沫动态特征提取方法研究[D]. 刘端. 湖南科技大学, 2020(06)
  • [7]基于潜在语义特征的图像美学评价研究[D]. 彭伟峰. 河北工业大学, 2018(07)
  • [8]第二小方向导数信息熵的兴趣点检测[J]. 卢健,黄杰,潘峰. 中国图象图形学报, 2016(01)
  • [9]基于图像增强技术的SURF图像匹配方法研究[D]. 莫小锋. 长沙理工大学, 2015(06)
  • [10]基于特征点的图像匹配技术研究与应用[D]. 黄雅兰. 江西理工大学, 2014(07)

标签:;  ;  ;  ;  ;  

兴趣点检测与图像匹配技术研究
下载Doc文档

猜你喜欢