基于区域协方差和目标度的航空侦察图像舰船目标检测论文

基于区域协方差和目标度的航空侦察图像 舰船目标检测

刘松涛, 姜康辉, 刘振兴

(海军大连舰艇学院信息系统系, 辽宁 大连 116018)

摘 要: 为了实现岛岸复杂环境下航空侦察图像舰船目标检测,提出一种基于区域协方差和目标度的显著目标检测方法。在联合条件随机场和字典学习的图像显著性检测框架下,首先提取每个区域增强的sigma特征,并进行稀疏编码,然后又设计基于显著优化的目标度特征,利用信念传播算法推断生成舰船目标显著图,最后应用高效子窗口搜索方法实现舰船目标检测。实验结果表明,新方法的显著图结果目标区域一致高亮,背景杂波抑制效果好,可实现准确的目标检测。

关键词: 显著性检测; 条件随机场; 区域协方差; 目标度; 高效子窗口搜索

0 引 言

针对岛岸复杂环境中舰船目标图像,如何有效地排除干扰,实现目标的准确检测是航空侦察领域迫切需要解决的难点问题。常见的目标检测方法包括模板匹配方法、关键点检测方法、目标分割方法、滑动窗口方法和部件集成方法,其中将滑动窗口方法和显著图检测结合既可保证检测效率,又可保证检测效果,是当前一个研究热点。传统的滑动窗口检测方法耗时较长,且需要分类器训练。高效子窗口搜索(efficient subwindow search, ESS)提高了目标定位速度[1],同时定位效果和传统的滑动窗口检测方法几乎一样。该方法一经提出,就备受关注。文献[2]结合高效子窗口搜索和显著图检测,提出最大显著密度区域的定位问题,避免了分类器训练。文献[3]将显著图计算融合到高效子窗口搜索的目标函数设计中,提高了目标定位效率。文献[4]将显著密度最大化应用于航空侦察图像目标检测,实现了简单背景下快速舰船目标定位。进一步,为了实现复杂场景中感兴趣目标定位,文献[5]利用学习的回归器将区域特征向量映射为显著性大小,然后采用显著密度最大化,较好地实现了复杂场景中舰船目标定位。文献[6]设计了融合显著图,提高复杂场景下目标的显著性,然后应用高效子窗口搜索实现红外图像目标检测。上述目标检测方法生成的包围盒对目标的定位精度可能不高,为此,文献[7]基于卷积神经网络架构提出了包围盒优化方法,改善了目标定位精度。

基于显著性检测和高效子窗口搜索的目标检测方法中,目标检测好坏极大地依赖显著性检测结果。显著性检测方法通常包括自底向上和自顶向下两类。自底向上显著性计算方法包括Itti方法[8]、幅度谱方法[9]、空间一致性方法[10-11]、超像素方法[12]等。自底向上显著性模型由于缺乏有监督信息,导致图像中可能会出现多个显著区域,不利于高效子窗口搜索进行目标检测,而自顶向下的显著性计算模型由于采用有监督学习,目标区域显著性明显。文献[13]在条件随机场(conditional random field,CRF)框架学习局部、区域和全局特征权重的基础上,用训练的CRF来生成感兴趣目标的显著图。为了进一步提高显著性检测效果,文献[14]联合学习CRF和字典,并利用尺度不变特征变换(scale-invariant feature transform,SIFT)特征的稀疏编码作为隐变量,但是对相似目标的分辨效果较差。文献[15]设计特征时考虑颜色的一阶和二阶统计、边缘方向和像素位置,并用目标度代替SIFT特征,明显改善了显著图检测效果。文献[16]采用建模的方法将已知目标的信息设计为贝叶斯似然函数,然后进行显著目标检测。大部分有监督显著性计算时需要目标标记图像,然而文献[17]提出了弱监督显著性检测方法,只需标记图像中是否有目标,无须知道目标的具体位置。考虑到自底向上线索和自顶向下先验信息各有优势,文献[18]集成基于结构矩阵分解的显著性检测和目标先验信息(如:位置、颜色和背景等),改善了显著目标图像。

本文将联合CRF和字典学习的显著图生成方法用于航空侦察图像舰船目标检测,发现主要不足是复杂场景下杂波抑制能力弱,显著目标非一致高亮。为了克服这些不足,本文首先用网格化分方法获取超像素,接着提取每个区域增强的sigma特征,并设计基于显著优化的目标度特征,改进了特征提取和目标度测量方法,然后在显著图上应用高效子窗口搜索实现舰船目标检测。文末的实验表明,新方法可以实现复杂场景航空侦察图像舰船目标的准确检测。

1 联合CRF 和字典学习的图像显著性检测框架

CRF模型可以看作是一个无向图或者是马尔可夫随机场。通过使用CRF计算显著图有利于利用局部上下文信息,因此,基于CRF模型的有监督显著图生成方法非常流行[13-15]。本文的显著性检测方法首先在CRF框架内共同学习字典和分类器权重,然后对图像超像素特征的稀疏编码建立CRF,并使用训练得到的模型参数来估计图像显著图[14]

1.1 基于稀疏编码和CRF 的显著性检测

对图像超像素特征X ={x 1,x 2,…,x m }分配一个二进制Y ={y 1,y 2,…,y m }来指示目标的存在与否。假设字典D ∈R g×k 是训练数据中最具代表性的目标部分(d 1,d 2,…,d k ),g 是特征向量维数,则引入隐变量s i ∈R k 对特征x i 进行稀疏编码如下:

走进圣家堂,首先吸引我的是雄伟错落的树形柱子从屋顶玻璃天窗泄下来的斑驳影子,犹如梦境一般。左右两边,各有一大片色彩斑斓的彩色玻璃,细看之下是不规则细碎的玻璃拼接而成,颜色由浅至深呈渐变,一边是有红色为主的暖色系,另一边是蓝色为主的冷色系,随着早中晚不同阳光,让整个教堂充满梦幻般瑰丽的色彩。从大厅出来,走向地下室,我们还可以看到圣家堂建造团队的工作室,而著名的设计师高迪也被埋在这个地下室。

(1)

式中,γ 和λ 是控制稀疏编码惩罚的参数。

对图像超像素构建图V =<υ ,ε >,其中节点υ 表示超像素,边缘ε 表示超像素之间的连接。设计CRF模型为

(2)

式中,Z 是配分函数;E (S (X ,D ),Y ,w )是能量函数;w 是CRF的权重向量。将能量函数E (S (X ,D ),Y ,w )分解为节点和成对能量项。对每个节点i ∈υ ,能量函数通过稀疏编码的总贡献表示,其中w 1∈R k 是权重向量。对每个边缘(i ,j )∈ε ,只考虑与数据无关的平滑度(y i ,y j ,w 2)=w 2Π (y i ,y j ),其中w 2是权重,Π 是不同标签的指示函数,标签相同为1,否则为0。因此,能量函数具体为

(y i ,y j ,w 2)

(3)

马克思、恩格斯说:“各民族的原始封闭状态由于日益完善的生产方式、交往以及因交往而自然形成的不同民族之间的分工消灭得越是彻底,历史也就越是成为世界历史。”[14]P88历史和现实已经日益证明了这个预言的科学价值。学习马克思主义这一思想,就要坚持互利共赢的开放战略,不断拓展同世界各国的合作,积极参与全球治理,同各国人民一道努力构建人类命运共同体,把世界建设得更加美好。“构建人类命运共同体”是马克思主义这一思想在当今条件下的新境界。

在CRF模型中,从边缘概率获取特定节点i ∈υ 的目标信息,即

(4)

式中,N (i )表示图V 上节点i 的相邻节点。然后,将超像素的显著值定义为

1.前提假设手册。首先,建立财务模型之前要将投资领域的各种基础元素进行计算,即在哪些领域需要进行资金投入,投入的依据和金额,通过书面的形式进行说明。最终汇总出财务模型所需要的全部投资要素的信息,以及信息来源和具备说服力的算法。这项工作一般通过建立前提假设手册来实现,使财务模型的基本结构、功能和关键点能够清晰的体现出来。

u (s i ,w )=p (y i =1|s i ,w )

(5)

最后,显著图U (s ,w )={u 1,u 2,…,u m }可以通过信念传播算法来推断。

1.2 联合CRF 和字典学习

考虑到区域协方差的特征融合能力、滤波能力和高效计算[19],本文采用区域协方差特征表示图像超像素区域。

步骤 1 对图像超像素区域计算特征向量x i ,并构建图。

步骤 2 用字典D (t-1) 对特征向量x i 计算隐变量s i ,∀i ∈υ 。

综上所述,在结直肠癌患者术后对其进行护理干预,可以显著提高患者的睡眠和生活质量水平,利于患者更快更好的康复,同时,护理干预的相关数据结果也将对结直肠癌的临床护理提供借鉴,推动医疗行业的发展。

步骤 3 寻找权重w (t-1) 最违规的标签

(6)

对每个图像像素用图像灰度、x 和y 方向一阶和二阶梯度的范数等5个特征表示如下:

n (w ,D )

式中,w =[w 1,w 2]。

(7)

其中,是损失函数,τ =e-5,控制w 的正则化。若隐变量S 已知,则能量函数E (S ,Y ,w )与w 是线性的,即E (S ,Y ,w )=<w ,f (S ,Y )>。

步骤 4 用损失函数相对于w 的梯度更新权重,即

(8)

式中,是学习速率。

如表3所示,接受词汇量和高级、中高级和中低级三类受试者熟练程度之间没有显著的相关性。就控制性产出词汇而言,只有中高级熟练程度与控制产出性词汇水平分数存在相关性,且属于中等程度的相关性。(r=.46,p<.05)

步骤 5 找到s i 的活动集Λ i ,∀i ∈υ 。

According to the virtual work principle,the generalized force can be expressed as,

步骤 6 计算对应于s i 的辅助变量z i ,即

(9)

其中,分别为s 的非零代码和零代码的索引集合。

步骤 7 用损失函数相对于D 的梯度更新字典,即

(10)

其中,Z =[z 1,z 2,…,z m ]。

步骤 8 将字典D (t) 投影到D ′上,即

D ′={D ∈R p×k ,‖d j2≤1,∀j =1,2,…,k }

(11)

步骤 9 更新学习率ρ :ρ t0/n 。

2 基于区域协方差和目标度的显著性建模

由于航空侦察图像的复杂性,利用超像素划分的方法不易提取目标的显著性,因此,本文利用网格划分的方法获取图像超像素区域。图像块大小为16像素×16像素,步进间隔为4。

2.1 区域协方差特征

X ′={X (1),X (2),…,X (N) }是训练图像的集合,Y ′={Y (1),Y (2),…,Y (N) }是相应的标签,D (0)是对训练图像集的特征进行k 均值聚类获取的初始字典,字典大小为是通过支持向量机训练获取的初始CRF权重,为1,学习速率ρ 0=e-3。针对第t 次循环第n 幅图像,学习最优CRF参数和字典的步骤如下。

其中,边缘函数然后,通过随机梯度下降算法最小化目标函数来学习权重w 和字典D :

“还说什么有两条路,投降、屈服,那根本就是一条路!”壶天晓转过头死死地盯着喵星飞鼠大使,心里盘算着。他要在丁达、镜心羽衣以及宴西园他们受到攻击前找到另外一条出路,一条能够拯救大家和自己的路。

F (x ,y )=

(12)

式中,I 是图像灰度,图像梯度通过滤波器[-1 0 1]T和[-1 2 -1]T来计算[20]。则超像素区域R 的协方差矩阵为

据报道,未分化的NSC可特异性表达巢蛋白,并且巢蛋白的表达随着细胞的成熟呈进行性下降[17]。体外培养的NSC可诱导分化为神经元和神经胶质细胞,两者分别特异性地表达NSE和GFAP。本研究用免疫荧光染色显示,在细胞核周围,巢蛋白免疫反应阳性的细胞>90%,说明所制备的NSC纯度>90%。另经维生素A诱导后,两者均呈阳性,表明所制备的NSC具有分化潜能,此细胞可应用于后续实验。

(13)

式中,μ 是区域特征向量的均值;n 是区域像素数。

为了降低区域协方差特征相似度的计算量,文献[21]设计了sigma特征,其计算公式为

(14)

式中,L i 是矩阵L 的第i 列;C 是协方差矩阵;C =LL T;α 是系数。通过引入特征向量均值,得到增强的sigma特征,即

x =(e 1+μ ,…,e g +μ ,e g+1 +μ ,…,e 2g +μ )T

(15)

2.2 基于显著优化的目标度

从图像中遍历搜索W *非常耗时,可采用高效子窗口搜索[4]。令W ={W 1,W 2,…,W i }表示区域集合,其中W i ⊆I 。假定W 存在两个区域W min和W max,使得W min⊆W i ⊆W max。令表示最优解的上界估计,则

沿着图像边界的长度为

观察组在对照组基础上,进行感恩拓延-建构理论疗法,包括:①励志讲座:出院之前请专家对患者召开讲座,使患者保持良好的精神状态;②培养广泛兴趣:鼓励患者通过听音乐等方式来分散注意力,减轻焦虑情绪;③正向回忆:鼓励患者回忆以往的生活情景,在生活中保持良好的心态;④感恩表达:培养患者的感恩之心和表达之情,节假日给朋友、家人等写祝福语表达祝福之情;⑤生活杂记:指导患者采用记日记的方式记录身边的事情及对以后的期望等。

(x i ,y i ,w 3)

(16)

式中,(x i ,y i ,w 3)=-w 3y i (2P (obj |x i )-1),P (obj |x i )是超像素的目标度,通过采样窗口内累积像素目标度值求取;w 3是目标度势的权重。目标度势可以衡量超像素区域相似目标的程度。

像素目标度值的求取采用基于显著优化的方法[22]。该方法的核心是定义了边界连接度,即区域靠近边界的长度除以区域面积的平方根。该值通常对背景区域较大,而目标区域较小。类似区域协方差特征提取部分,通过网格化分方法获取超像素区域,并连接所有临近区域(p ,q )构成无向图,分配边缘权重d app(p ,q )为平均颜色的欧氏距离,测地距离d geo(p ,q )为图中最短路径上累积的边缘权重,则

(17)

每个超像素区域的扩张面积为

(18)

式中,m 是超像素个数;σ clr=10。

(s i ,y i ,w 1)+

(19)

式中,若超像素p i 在图像边界,则δ (·)为1,否则为0。

根据式(18)和式(19),边界连接度为

本项目通过应用BIM技术提高了信息化管理水平,在施工过程中实现了“四节一环保”的预期目的,且已顺利通过住建部绿色施工科技示范工程的中期检查。

(20)

最后,利用高斯函数将边界连接度映射到[0,1)之间为

(21)

式中,σ BndCon =1。

令m 个超像素的目标度值为则代价函数定义为

(22)

式中,第一项是背景项,鼓励大的超像素显著值t i 小;第二项是前景项,鼓励大的超像素显著值t i 大;第三项是平滑项,鼓励显著值的连续性。对邻近超像素(i ,j ),权重为

(23)

其中,h 取0.1,调整杂波图像区域的优化性能,有利于消除前景和背景中的杂波噪声。在图像平坦区域,ω ij 值大,而区域边界,ω ij 值小。针对代价函数,用最小均方优化方法即可得到像素目标度值。

3 基于显著密度最大化的目标检测方法

根据有监督学习生成的显著图,利用显著密度最大化的高效子窗口搜索实现目标检测。

Similarly to the first round, significantly more female participants completed both first and second FIT rounds in comparison to male participants (16 of 95 or 16.8%vs 8 of 116 or 6.8%, P = 0.05).

3.1 目标搜索函数

考虑到显著目标区域的密度大于背景区域的密度,可设计目标函数搜索最大显著密度的区域[4]。目标搜索的函数f (W )设计为

(24)

式中,W 是搜索窗口;C 0是正的常数;第一项让检测区域包含更多的显著像素;第二项保证检测区域具有高的显著密度。

对测控技术与仪器专业工程教育认证的思考 杨 晖,刘宏业,范彦平,华云松,张荣福,沈昱明,朱继岩 40(4)369

3.2 高效子窗口搜索

为了更加精确地提取目标,在能量函数中引入目标度势,式(3)更改为

(25)

通过前面的分析,将航空侦察舰船图像舰船目标检测算法概括为训练阶段和测试阶段。训练阶段的输入为N 幅图像,输出为CRF模型权重w 和字典D 。测试阶段依据优化的权重和字典,进行稀疏编码和构建CRF模型能量函数,最后在推断生成的显著图上进行高效子窗口搜索定位目标。整个目标检测算法流程如图1所示。新方法的主要特点:①基于增强的sigma特征提取区域特征,能够更好地体现舰船目标显著性;②在能量函数中引入基于显著优化的目标度特征,使得显著性检测方法的适应性和背景抑制效果更好;③将联合CRF和字典学习的显著性检测方法与高效子窗口搜索方法结合,实现显著目标检测。总之,新方法可较好实现航空侦察图像舰船目标的准确检测。

图1 舰船目标检测算法流程图
Fig.1 Flow chart of ship target detection algorithm

4 实验结果分析

首先对提出的显著图算法性能进行分析,然后从主观和客观两个方面,分析比较新方法对当前流行显著图检测方法的优点,最后结合显著图和高效子窗口搜索进行目标检测,并比较分析不同目标检测方法的性能。实验时,需要调整的参数主要有4个:λ ,γ ,w 3和C ,其余参数保持常量取值即可。λ 控制显著目标区域面积,取值小则面积大;γ 控制显著目标区域形状,取值小则目标形状好;w 3控制目标度的重要性,取值大则背景抑制好;C 控制检测包围盒大小,取值大则包围盒大。默认γ =0.3,λ =e-3,w 3=1,C =500。

4.1 显著图算法性能分析

图2(a)是岛岸背景的舰船目标航空侦察图像,存在岸边建筑物干扰;图2(b)是文献[14]方法的显著图,目标区域显著性不一致,存在杂波干扰;图2(c)是文献[15]方法的显著图,杂波抑制能力变强,说明sigma特征能更好体现舰船显著性,但目标区域显著性不一致,说明对航空侦察图像提取超像素的弊端;图2(d)是在联合CRF和字典学习的显著性检测框架下,网格化分和sigma特征的显著图结果,目标区域一致高亮,但存在杂波干扰。在能量函数中引入传统的目标度[15],岸边建筑物引起的杂波得到有效抑制,但目标区域形状与真实目标差别较大,如图2(e)所示。本文引入基于显著优化的目标度,目标形状改善明显,同时,杂波也得到有效抑制,如图2(f)所示。因此,新方法能够实现岛岸复杂环境舰船目标显著性的有效检测。

为了进一步说明基于显著优化的目标度的作用,图3是能量函数引入传统目标度和显著优化目标度的显著图。传统目标度无论如何调整参数都无法抑制杂波,而显著优化目标度可较好地将岸边建筑物杂波抑制。

4.2 显著图算法对比分析

为了充分说明本文显著图方法的优点,深入对比分析了17种典型显著图方法(Frequency[23],Gbvs[24],Spatial coherence[11],HFT[25],Itti[8],MSS[26],Saliency measure[27],Signature[28],Sim[29],Spectral[9],Covarince[30],Superpixel-Cheng[12],SuperpixelHe[10],Randomforest[31],CRFdiction-ary[14],Superpixeldictionary[15],Covariance objectness(本文方法))对不同航空侦察舰船目标图像的显著性检测结果。图4是17种方法的显著图。Frequency、MSS和Spectral方法对图像中高亮点和边缘的显著性明显,其中Frequency方法的显著性检测效果最好;Gbvs、HFT、Itti、Signature、Sim和Covariance方法均能够显著目标区域,其中Sim、Itti和Signature方法杂波干扰严重,HFT、Gbvs和Covariance方法目标定位比较准确,但HFT方法干扰抑制效果好,Gbvs方法干扰比较明显,Covariance方法目标形状信息损失严重;Spatial coherence和Saliency measure方法对图像中目标细节保留较好,但没有显著完整目标。基于区域的显著性检测方法中,SuperpixelHe方法由于考虑相同灰度的超像素的空间分布情况,其显著图明显优于SuperpixelCheng方法的显著图,但是两种方法的目标区域都没能一致显著。Randomforest,CRFdictionary,Superpixeldictionary和Covariance object ness是4种有监督显著图方法。很明显,本文方法的显著图结果目标区域一致性好,同时背景杂波抑制明显,有利于进行高效子窗口搜索目标检测。

图2 考虑不同影响因素的显著图效果
Fig.2 Saliency maps with considering different impact factors

图3 不同目标度的显著图
Fig.3 Saliency maps of different objectness

客观评价时采用PR(precision and recall)曲线对17种方法的显著图进行评价。图5是不同显著图检测方法的PR曲线,本文方法排在第4的水平。gbvs, HFT和randomforest 3种方法虽说少部分图像杂波干扰严重,但是大部分图像与目标区域的重叠性较好,导致这3种方法的PR曲线占优。考虑到PR曲线评估忽略了非显著像素的正确分配和目标检测的完整性,本文又引入平均绝对误差(mean absolute error,MAE)和加权F值(weighted F-measure,WF)值进行客观评价[18],结果如表2所示。无论是MAE,还是WF,本文方法的评价结果都是最优的。然而,当场景中存在疑似舰船目标(见图6中岸边建筑物)时,本文方法可能会误认为场景中有多个目标。应该说,单纯靠显著性目标检测是很难适应各种复杂场景的,需要目标识别来进一步区分目标和杂波。和大多数有监督训练显著性检测方法一样,本文方法的训练时间较长,迭代次数t =10时,耗时约10个小时。训练时,类似于Graz-02数据库,收集了300幅舰船图像,300个背景图像,图像大小为256像素×256像素,并对舰船图像人工标记目标模板。测试时,本文方法耗时约14 s,与文献[14]和文献[15]的显著性检测方法相当。

报告从四个方面展开,首先介绍国家的一些相关政策和新要求,其次对图书馆目前的发展现状和服务进行论述,再次从新技术的角度介绍国内外的一些实践以及西安电子科技大学图书馆的实践,最后对于提升图书馆传统服务提出总结和建议。

4.3 目标检测结果分析

目标检测结果评价时主要通过比较检测的矩形包围盒和基准标记之间的关系,来确定目标检测的优劣。具体评价方法是采用F 值大小来判断目标检测好坏[32]。F 值越大,则目标检测效果越好。

图4 17种显著性检测方法的显著图
Fig.4 Saliency maps of seventeen saliency detection methods

表2 不同显著性检测方法的评价

Table 2 Evaluation of different saliency detection methods

图5 17种显著性检测方法的PR曲线
Fig.5 PR curves of seventeen saliency detection methods

图6 复杂场景舰船目标图像的显著图
Fig.6 Saliency maps of ship target image under complex scene

基于本文方法的显著性检测结果,应用高效子窗口搜索方法进行目标检测,结果见图7的第4行,目标区域检测比较准确。图7的第2行是文献[4]方法的结果,岛岸场景舰船目标检测效果不好,图7的第3行是文献[5]方法的结果,岛岸场景舰船目标检测效果有所改善,但是包围盒覆盖背景区域还是偏多。采用F 值的客观评价结果如表3所示,本文方法最优,但耗时偏长,这启发我们简单场景显著目标检测可以应用文献[4]方法,复杂场景显著目标检测则采用本文方法。实验采用笔记本电脑,硬件为2.3 GHz CPU,8G内存;操作系统为win7 64位,开发软件为matlab7.6,代码未优化。

图7 不同显著目标检测方法的检测结果
Fig.7 Detection results of different detection methods for salient target

表3 不同显著目标检测方法的评价

Table 3 Evaluation of different salient target detection methods

5 结 论

本文在联合CRF和字典学习的图像显著性检测框架下,提出用sigma特征进行目标显著性建模,同时,引入目标度特征来增强目标显著性和抑制背景杂波,最后与高效子窗口搜索方法结合,实现复杂场景航空侦察图像舰船目标的准确检测。文末实验表明,新方法的显著图结果目标区域一致性好,背景杂波抑制明显。从主观和客观两个方面评价,新方法都优于当前典型的显著性检测方法。进一步,将显著图与高效子窗口搜索结合进行目标检测,可有效抑制杂波干扰,更加准确的检测目标。主要不足是训练和测试时间偏长,疑似舰船目标区分能力稍低,下一步研究主要是克服这些不足,同时关注弱监督训练方法生成显著图,降低人工标记图像的工作量[17]

参考文献:

[1] LAMPERT C H, BLASCHKO M B. Beyond sliding windows: object localization by efficient subwindow search[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2008:1-8.

[2] YE L, YUAN J S, XUE P, et al. Saliency density maximization for object detection and localization[C]∥Proc.of the Asian Conference on Computer Vision, 2010: 396-408.

[3] FRINTROP S, WERNER T, GARCIA G M. Traditional saliency reloaded: a good old model in new shape[C]∥Proc.of the IEEE Computer Vision and Pattern Recognition, 2015: 82-90.

[4] 刘松涛,黄金涛,刘振兴.基于显著图生成和显著密度最大化的高效子窗口搜索目标检测方法[J].电光与控制,2015,22(12):9-14.

LIU S T, HUANG J T, LIU Z X. Efficient subwindow search target detection method base on Itti’s saliency map and maximum saliency density[J]. Electronics Optics & Control, 2015, 22(12): 9-14.

[5] LIU S T, JIANG N, LIU Z X. Target detection method based on supervised saliency map and efficient subwindow search[C]∥Proc.of the SPIE Conference on Applied Optics and Photonics China, 2015: 967512(1/7).

[6] 刘松涛,刘振兴,姜宁.基于融合显著图和高效子窗口搜索的红外目标分割[J].自动化学报,2018,44(12):2210-2221.

LIU S T, LIU Z X, JIANG N. Target segmentation of infrared image using fused saliency map and efficient subwindow search[J]. Acta Automatica Sinica, 2018, 44 (12): 2210-2221.

[7] GIDARIS S, KOMODAKIS N. LocNet: improving localization accuracy for object detection[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 789-798.

[8] ITTI L, KOCH C, NIEBUR E. A model of saliency based visual attention for rapid scene analysis[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 1998, 20 (11): 1254-1259.

[9] HOU X, ZHANG L. Saliency detection: a spectral residual approach[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2007: 1-8.

[10] HE X, JING H Y, HAN Q, et al. Salient region detection combining spatial distribution and global contrast[J]. Optical Engineering, 2012, 51 (4): 047007.

[11] LIU S T, SHEN T S, DAI Y. Infrared image segmentation method based on spatial coherence histogram and maximum entropy[C]∥Proc.of the Photonics Asia, 2014: 1-8.

[12] CHENG M M, ZHANG G X, MITRA N J, et al. Global contrast based salient region detection[C]∥Proc.of the International Conference on Computer Vision, 2011: 409-416.

[13] LIU T, SUN J, ZHENG N, et al. Learning to detect a salient object[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2007:1-8.

[14] YANG J, YANG M H. Top-down visual saliency via joint CRF and dictionary learning[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2012: 2296-2303.

[15] KOCAK A, CIZMECILER K, ERDEM A, et al. Top down saliency estimation via superpixel-based discriminative dictionaries[C]∥Proc.of the British Machine Vision Conference,2014:1-12.

[16] ZHANG L, TONG M, MARKS T, et al. SUN: a Bayesian framework for saliency using natural statistics[J]. Journal of Vision, 2008, 8 (7): 1-20.

[17] CHOLAKKAL H, JOHNSON J, RAJAN D. Back-tracking ScSPM image classifier for weakly supervised top-down saliency[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 5278-5287.

[18] PENG H P, LI B, LING H B, et al. Salient object detection via structured matrix decomposition[J]. IEEE Trans.on Pattern Analysis & Machine Intelligence, 2017, 39(4): 818-832.

[19] TUZEL O, PORIKLI F, MEER P. Region covariance: a fast descriptor for detection and classification[C]∥Proc.of the European Conference on Computer Vision, 2006: 589-600.

[20] 刘松涛,常春,沈同圣.基于区域协方差的图像特征融合方法[J].电光与控制,2015,22(2):7-11.

LIU S T, CHANG C, SHEN T S. The image feature fusion method based on region covariance[J]. Electronics Optics & Control, 2015, 22 (2): 7-11.

[21] HONG X, CHANG H, SHAN S, et al. Sigma set: a small second order statistical region descriptor[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2009: 1802-1809.

[22] ZHU W J, LIANG S, WEI Y C, et al. Saliency optimization from robust background detection[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 2814-2821.

[23] ACHANTA R, HEMAMI S, ESTRADA F, et al. Frequency-tuned salient region detection[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2009: 1597-1604.

[24] SCHÖLKOPF B, PLATT J, HOFMANN T. Graph-based visual saliency[C]∥Proc.of the Advances in Neural Information Processing Systems, 2006: 545-552.

[25] LI J, LEVINE M D, AN X, et al. Visual saliency based on scale-space analysis in the frequency domain[J]. IEEE Trans.on Pattern Analysis & Machine Intelligence,2013,35(4):996-1010.

[26] ACHANTA R, SUSSTRUNK S. Saliency detection using maximum symmetric surround[C]∥Proc.of the IEEE International Conference on Image Processing, 2010:2653-2656.

[27] RAHTU E, KANNALA J, SALO M, et al. Segmenting salient objects from images and videos[C]∥Proc.of the European Conference on Computer Vision, 2010:366-379.

[28] HOU X, HAREL J, KOCH C. Image signature: highlighting sparse salient regions[J]. IEEE Trans.on Pattern Analysis & Machine Intelligence, 2012, 34(1):194-201.

[29] MURRAY N, VANRELL M, OTAZU X, et al. Saliency estimation using a non-parametric low-level vision model[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2011:433-440.

[30] ERDEM E, ERDEM A. Visual saliency estimation by nonlinearly integrating features using region covariances[J]. Journal of Vision, 2013, 13(4): 1-20.

[31] JIANG H, WANG J, YUAN Z, et al. Salient object detection: a discriminative regional feature integration approach[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2083-2090.

[32] ALPERT S, GALUN M, BASRI R, et al. Image segmentation by probabilistic bottom-up aggregation and cue integration[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2007:1-8.

Ship target detection of aerial reconnaissance image based on region covariance and objectness

LIU Songtao, JIANG Kanghui, LIU Zhenxing

(Department of Information System ,Dalian Naval Academy ,Dalian 116018 ,China )

Abstract : In order to realize the ship target detection of the aerial reconnaissance image under complex environment with island and shore, a salient target detection method is proposed based on regional covariance and objectness. Under the saliency detection framework of conditional random field and dictionary learning, the sigma features of each region are extracted and sparsely coded, and then the objectness feature is designed by using saliency optimization and the belief propagation algorithm is adopted to infer the saliency map of the ship target image, and finally the efficient subwindow search method is applied to achieve ship target detection. The experimental results show that the saliency map of the proposed method has complete target features and good background suppression, and it can achieve accurate target detection.

Keywords : saliency detection; conditional random field; region covariance; objectness; efficient subwindow search

中图分类号: TN 953

文献标志码: A

DOI: 10.3969/j.issn.1001-506X.2019.05.06

收稿日期: 2018-05-02;

修回日期: 2018-12-04;网络优先出版日期: 2019-01-24。

网络优先出版地址: http:∥kns.cnki.net/kcms/detail/11.2422.TN.20190124.1712.004.html

基金项目: 国家自然科学基金(61303192);博士后基金(2015M572694,2016T90979)资助课题

作者简介:

刘松涛 (1978-),男,副教授,博士,主要研究方向为图像处理、光电工程、电子对抗。E-mail:navylst@163.com

姜康辉 (1992-),男,硕士研究生,主要研究方向为图像目标检测。E-mail:kanghuijiang@163.com

刘振兴 (1980-),男,讲师,博士,主要研究方向为电子对抗、图像处理。E-mail:liuzhenxing@163.com

标签:;  ;  ;  ;  ;  ;  

基于区域协方差和目标度的航空侦察图像舰船目标检测论文
下载Doc文档

猜你喜欢