面向军事目标识别的DRFCN深度网络设计及实现论文



面向军事目标识别的DRFCN深度网络设计及实现

刘 俊1*,孟伟秀1,余 杰2,李亚辉1,孙 乔1

1杭州电子科技大学通信信息传输与融合技术国防重点学科实验室, 浙江 杭州 310018; 2中国船舶重工集团公司第七一五研究院,浙江 杭州 310023

摘要:自动目标识别(ATR)技术一直是军事领域中急需解决的重点和难点。本文设计并实现了一种新的面向军事目标识别应用的DRFCN深度网络。首先,在DRPN部分通过卷积模块稠密连接的方式,复用深度网络模型中每一层的特征,实现高质量的目标采样区域的提取;其次,在DFCN部分通过融合高低层次特征图语义特征信息,实现采样区域目标类别和位置信息的预测;最后,给出了DRFCN深度网络模型结构以及参数训练方法。与此同时,进一步对DRFCN算法开展了实验分析与讨论:1) 基于PASCAL VOC数据集进行对比实验,结果表明,由于采用卷积模块稠密连接的方法,在目标识别平均准确率、实时性和深度网络模型大小方面,DRFCN算法均明显优于已有基于深度学习的目标识别算法;同时,验证了DRFCN算法可以有效解决梯度弥散和梯度膨胀问题。2) 利用自建军事目标数据集进行实验,结果表明,DRFCN算法在准确率和实时性上满足军事目标识别任务。

关键词:深度学习;目标识别;PASCAL VOC数据集;军事目标

width=160.5,height=138

1 引 言

自动目标识别(Automatic target recognition,ATR)技术一直是军事应用领域中急需解决的重点和难点,其中光电探测是现代预警探测情报网中的关键探测途径之一。在实际作战中,通过部署在不同武器装备平台上的光电设备,可以获得海量图像、视频数据,如何在这些采集的数据中实现快速、精准的军事目标识别,提高作战系统的军事目标识别能力,具有十分重要的意义。得益于大数据、云计算和人工智能技术的发展,尤其是以深度学习算法为基础的智能目标识别技术的进步,利用机器智能对军事目标进行识别,越来越受到各国学术界和应用部门的高度重视。

从20世纪50年代开始,美国率先开展了基于图像的军事目标识别技术研究工作。从国外军事目标识别研究的技术路线及发展历史来看,目标识别的技术路线及发展历史可大致划分为六个阶段:经典的统计模式识别方法[1]→基于知识的自动目标识别方法[2]→基于模型的自动目标识别方法[3]→基于多传感器信息融合的自动目标识别方法[4]→基于人工神经网络和专家系统混合应用的自动目标识别方法[5]→基于人工智能和深度学习的自动目标识别方法[6]。其中,基于前5个发展阶段的技术路线,其实现的军事目标识别技术水平一般难以实现超越人的识别水平。对于最后一个发展阶段,即基于人工智能和深度学习的自动目标识别方法,近十年来,由于超大规模集成电路、超高速集成电路、神经网络、量子计算机技术、多传感器集成技术、人工智能技术、深度学习、大数据技术等的快速发展,国外军事目标识别研究已由理论探索、实验室仿真逐渐走向实际应用。我国基于深度学习的军事目标识别研究主要处于理论探索和实验室仿真阶段,有待逐渐突破并走向实际应用。

在理论研究方面,基于深度学习的目标识别算法大致可以分为三类方法:1) 基于区域采样、目标分类、目标位置修正的方法,可称为基于区域采样的深度卷积目标识别算法,该类方法的优点是识别准确率高,缺点是算法模型庞大,训练耗时长,很多高准确率的算法模型需要多GPU的联合训练,算法识别速度慢,对硬件要求高,如全卷积目标识别(region-based fully convolutional networks,RFCN)[7]算法模型;2) 基于回归的深度卷积目标识别算法,该类方法的优点是目标识别速度快,但识别准确率总体低于基于区域采样策略的目标识别方法,如YOLO(you only look once)算法模型[8];3) 前两类方法的组合方法,典型代表是SSD(single shot MultiBox detector)算法模型[9]

ALEXNet[6]验证了基于CNN(convolutional-neural- networks)的深度学习方法能够大幅度提升分类的准确率。2012年Cirshick在ALEXNet基础上进一步提出R-CNN(regions with CNN features)[10]方法,第一次实现基于CNN方法的自动目标识别,但其缺点是由于采用分段级联模型不能共享计算;特征向量需要海量存储空间,存在时空冗余;输入图片需固定尺寸。进一步文献[11]提出SPP(spatial pyramid pooling)算法,在模型底层采用空间金子塔池化方式[12]将不同大小的特征图聚合归一化到特定维度,在特征图上获取采样区域的方法共享了卷积层的计算量,大幅提高网络的训练和测试速度,然而由于分类和坐标回归需要两个代价函数,不能实现端到端的训练和测试。随后,Cirshick在SPP算法的基础上提出了Fast R-CNN(fast regions with CNN features)算法模型[13],采用联合代价函数实现了端到端的训练与测试,并且特征不需要额外存储空间,但是区域采样步骤耗费的时间,相比检测算法也要高出一个数量级。文献[14]针对上述问题,提出一种全卷积区域采样算法RPN(region proposal network)[15]的CNN网络,能够快速产生高质量采样区域。

通过适当堆叠深度学习算法卷积模块可以提高网络的学习能力,提升网络性能[16],但在算法训练过程中将面临梯度弥散和梯度膨胀[17]的问题,过多堆叠卷积模块反而造成准确率下降。为解决此类问题,提出了残差网络ResNet[18]和Highway Netwroks[19]等,采用岔路连接的策略解决了卷积模块堆叠过多而难以训练的问题。基于残差结构的目标识别算法模型RFCN仍然保持着2017年PASCAL VOC数据集中最高的目标识别准确率,但该算法每一层学习到的特征相互独立,没有共享特征信息。那么,有没有一种算法能突破这种单向连接的建模方式?在ILSVRC2017的比赛中,由Facebook人工智能团队提出的DenseNet[20]分类算法通过共享每一层特征图的方式,获得了ILSVRC2017最高的目标分类准确率。DenseNet通过特征重用而不是拓展算法模型深度[21]抑或是拓展算法宽度(如GoogLeNet[22])或变体的ResNet[23]来提高算法性能,DenseNet在分类准确率和模型大小上存在很大的优势。

“其实将石头雕成孔明灯,还不算难,难的是,他们在牡丹花的不同花瓣间,都凿出了暗道,暗道里藏下由万花谷里采摘来的花瓣,这样随着热气的萦绕,不同的暗道发出不同的声响,落下不同的花瓣,至于声音如何混杂在一起,发出不同的声调,花瓣又如何调和,产生不同的气味,这个就不是我能想出来的了。”

因此,本文拟通过卷积模块稠密连接的方式,各个卷积模块都和上层的所有卷积模块稠密连接,复用深度网络模型中每一层的特征,底层的卷积模块学习到了上面所有卷积模块的特征,必将提高深度网络模型的特征表达能力,不仅提高识别平均准确率和减小深度网络模型,而且有效解决梯度弥散、梯度膨胀问题。本文将此模型应用在军事目标识别上在准确率、实时性等方面都取得了比较好的识别效果。

2 面向军事目标识别应用的DRFCN深度网络模型设计

面向军事目标识别应用的DRFCN深度网络模型总体结构图如图1所示,主要包括:1) 基于稠密卷积神经网络的区域采样算法(dense connected region proposal network, DRPN);2) 基于稠密卷积神经网络的快速区域分类算法(dense connected fast classification network, DFCN);3) DRFCN算法模型结构;4) RFCN参数训练方法等。

width=432.05,height=149.65

图1 DRFCN深度网络模型总体结构框图

Fig. 1 General structure diagram of DRFCN depth network model

2.1 基于稠密卷积神经网络的区域采样算法(DRPN)

2) 数据集:

1) 采样区域获取:输入通道的特征图片经过稠密卷积网络层变换后,生成了多个W´ H大小的特征图,特征图的每一个像素(神经元)具有很宽泛的感受野,对于一个W´ H的特征图将产生W´ H´ k个锚点框(k为样本的数量),这些采样区域包含了大量的前景区域(包含目标)和背景区域(不包含目标),在W´ H´ k个样本中利用交并比(intersection over union,IoU)指标对产生的采样区域进行筛选,使得锚点框正负样本比例数量维持在3:1左右。正样本:对于任意一个锚点框,它和前景区域有最大的重叠区域,或者它和前景区域有大于70%的重叠区域;负样本:对于任意一个锚点框,它满足不是正样本的前提下,并且和所有前景区域有低于30%的重叠区域;剩下的既不是正样本也不是负样本,不参与最终训练。

播种花生时,一定要选晴天,这样做的目的,是为了让花生可以提前开花,有效避免干旱期,帮助提升花生产量,在条件允许的前提下,遵照“尽早播种”的基本原则,这样可以增加有效积温,促进花生提早开花,也可以帮助提升花生产量。假设在某一时间段内下雨量大且集中,就会严重冲刷土壤,非常不利于花生的生长和总产量的提升。

width=407.2,height=154.5

图2 DRPN的总体结构图

Fig. 2 The overall structure diagram of DRPN

width=431.95,height=119.25

图3 DFCN的总体结构图

Fig. 3 General structure diagram of DFCN

2) 联合代价函数:为了实现目标采样的提取任务,在此采用联合代价函数训练DRPN。通过分别设定分类和区域采样算法的代价函数,利用边框回归与逻辑回归算法计算采样区域的类别损失LOSS和位置损失LOSS,设计如式(1)所示的联合代价函数:

width=123,height=30

width=90,height=31.95 , (1)

其中:width=16.2,height=14.95width=17.25,height=17.2分别表示分类前景区域(包含目标)和背景区域(不包含目标)和锚点框回归的代价函数,width=44,height=17width=11,height=15表示预测的锚点框置信得分,如果一个锚点框为负样本,width=12,height=17为0;如果一个锚点框为正样本,width=12,height=17为1。width=18.25,height=14.95表示一次训练选取的锚点框数量,width=19.9,height=17.2表示选取锚点框的特征图大小。

2.2 基于稠密卷积神经网络的快速区域分类算法

基于稠密卷积神经网络的快速区域分类算法(DFCN)的总体结构图如图3所示。本文采取了区域池化层(region of interest pooling layer, ROI pooling)和全连接层组合的方式构建DFCN算法模型。利用DRPN快速、高效地获得高质量的采样区域后,需要对获得的采样区域进行细分类。在深度网络中,特征的质量直接决定了目标识别算法的最终准确率。DFCN算法相较已有深度网络可以实现:1) 融合高低层次语义特征信息进行采样区域分类;2) 利用特征图信息同时输出了军事目标的类别和位置信息。基于深度学习的DFCN分类算法主要有以下几个部分:

设置高校国有资产管理奖励制度,奖励在资产管理实务中作出突出贡献的工作者,奖励提出资产管理合理化建议的人员。将员工的奖金与经营性资产取得的效益相挂钩,最大程度地发挥经营者的积极主动性,尽可能地实现国有资产的保值增值。同时,对造成国有资产损失者,则应该按照有关规定,并依据当事人的责任大小追究其责任,并要求进行一定的赔偿。对管理意识薄弱的主管人员,造成国有资产损失、流失等后果的,则应给予严惩。

步骤3:使用步骤2中DFCN稠密连接的卷积层初始化DRPN,保持稠密连接部分权重不变,只微调DRPN独有的层,到此为止,DRPN和DFCN已经共享了卷积层;

2) 采样区域池化层:将不同维度的特征矩阵归一化到相同维度的变换。

福建省某粉煤灰综合利用有限公司2007年引进山东煤机装备集团的降炭提质工艺系统;粉煤灰原灰经电厂调湿后,由汽车运至处理厂储灰斗,经计量送入矿浆预处理器中,自动加药机将分散剂、复合浮选药剂等加入矿浆预处理器混合搅拌,由渣浆泵送入矿化器矿化后进入粉煤灰专用浮选机浮选,在浮选机的强力作用下,发泡剂产生大量气泡,气泡在上升至液面的过程中将吸附了油的煤粒子带到液面形成泡沫层自溢排出。分离后的炭粒浆和尾灰浆分别流到浓缩机浓缩,经过滤机脱水,分别由胶带输送机运至高炭灰堆场和尾灰堆场;滤液流入储水池循环利用。

3) 联合代价函数:DFCN有两个同级的输出:①输出width=21,height=12个目标的类别信息,其中k表示类别;② 输出每一类的坐标位置。训练DFCN的联合代价函数如下式:

当学生积累了一定的文言知识后,到高三阅读《论语》时,不仅培养了自己文言文阅读及用文言素材转化为白话文写出优质文章的能力,而且还培养了他们热爱传统文化及在传统文化中熏陶渐染并慢慢懂得“仁”“义”“礼”“智”“信”的真谛,化为生活实践,与时代结合,取其精华、革故鼎新,在做好学问之余,反转过来促进做人、做事的和谐与圆通。

width=164,height=17 。 (2)

式中:width=82.15,height=15是真实类别width=9.15,height=10概率分布的对数损失。边框回归的损失width=17.1,height=15.2的定义基于两组参数:类别width=9.15,height=10输出的边框偏移量width=67,height=17.1;类别width=9.15,height=10的预测边框偏移量width=67.95,height=19.1。只有正样本才参与边框回归,通过width=9.15,height=10y进行控制。具体计算式:

width=85.1,height=33.1 , (3)

width=9,height=12.05用来控制分类损失和边框回归损失的正则项值,平衡这两个损失width=17.1,height=15.2width=16.1,height=15.2的比重。

2.3 DRFCN算法模型结构

密集连通区域快速分类网络(Dense connected region fast classification network,DRFCN)算法主要有以下几个部分,具体模型结构的如表1所示。

一般用户对开源软件参与度越高,用户对开源软件的喜爱程度越高,用户给开源软件的评价等级越好.目前,开源社区一般用Star数来度量开源软件的流行度.因此,我们把以上主成分分析所得出得四个主成分与Star数做了回归拟合分析,用Star数作为因变量,回归模型的汇总结果如表4所示,调整后的拟合系数为63.9%,拟合结果较好,其中因子3和Star具有强相关性.

1) 特征提取基础网络部分:由3个稠密卷积块和多层卷积池化层组成,稠密卷积块由6层卷积层稠密连接而成;

2) 特征降维部分:在每个稠密卷积块之间分布着卷积池化层,每个稠密卷积块都是级联了上层所有特征图,每一层表现为综合了前面所有层的特征信息,为了避免算法底层权值维度过高带来的内存溢出问题,在每一个稠密卷积块之间添加了卷积池化层降低特征图矩阵的维度;

今年以来,全区林业工作以实施“绿满河口·美丽家园”造林行动为契机,突出抓好一系列生态造林建设,与生态旅游相结合,深度挖掘资源优势,同时,着力推进林业产业发展,实现生态绿色建设、绿色富民产业“绿色双增长”。

3) 分类器和位置坐标回归预测部分:在提取了目标特征信息后,采用DRPN独有的层获得采样区域,采用ROI归一化特征图大小和全连接层加分类器[24]的方式获得目标的置信得分和最终的位置信息。

在了解到实时气象对交通出行、旅游出行的巨大影响后,如何让导航与实时天气结合,成为一个重要研究课题。气象与导航的结合中,最早应用于海上交通。甚至,“气象导航(weather routing)”这个词,狭义的解释为船舶气象导航:根据天气和海况预报、船舶性能和技术条件、航行任务,为船舶优选横渡大洋航线和保证付诸实现的全部技术。用这种方法拟定的航线称为气象航线,是最佳航线之一。

2.4 DRFCN参数训练方法

DRPN算法用于产生高质量的采样区域,DFCN算法用于计算关于采样区域类别信息的离散概率分布和位置坐标。假如要使得DRPN和DFCN共享稠密卷积层,则DRFCN需要一种训练机制,使得DRPN和DFCN共享权重。本文实验采样区域生成网络和采样区域分类网络公用共享卷积层的模型训练方法,采用DRPN和DFCN联合分布参数训练,将DRPN和DFCN看做一个统一的整体,在每一次采用批量随机梯度下降算法(mini-batch stochastic gradient descent, MSGD)的过程中,前向传递阶段用DRPN产生的采样区域直接训练DFCN,反向传递阶段DRPN和DFCN梯度依次反传,多次迭代后直到算法收敛。大致训练步骤如下:

步骤1:使用MSGD算法训练DRPN,稠密连接的卷积模块用超前训练的权重初始化;

(5)学生缺乏系统的,具有技巧性的做笔记的习惯,一方面增加记忆的负担,容易造成紧张焦虑的情绪,另一方面做笔记时泛泛而听,听到哪个单词就记录哪个,抓不住关键词句,导致理解材料的基本思想和主要内容失败。

步骤2:使用步骤1中DRPN产生的采样区域训练DFCN,稠密连接的卷积模块用超前训练的权重初始化;

1) 特征转换:对于每一层特征图,算法模型需要对特征图做卷积、池化、归一化、线性或非线性转换等操作。

①网络模型大小分析:

② 网络模型大小width=15,height=17:是指整个网络可训练参数的大小,其主要包含卷积层参数的数量和全连接层数。其计算式:

表1 DRFCN16目标识别算法模型结构

Table 1 DRFCN16 object recognition algorithm model structure

3 DRFCN方法实验分析及讨论

本节中将对DRFCN深度网络开展实验验证和性能测评。首先,利用PASCAL VOC标准数据集,开展DRFCN方法和已有典型深度学习方法的性能对比实验和分析;其次,利用实际作战环境中采集得到的图像、视频资源,仿照PASCAL VOC数据集的格式,自建军事目标数据集,并利用该数据集对DRFCN算法开展实验验证及分析。具体分析如下:

3.1 实验环境及数据集

1) 实验软硬件环境:Caffe框架;CPU:Xeon E5-2450@2.00 GHz;内存16 G;GPU:TITAN X(12 G)。

基于稠密卷积神经网络的DRPN算法模型结构如图2所示,该模块主要完成采样区域的提取任务,通过将采样区域进行前景和背景类别的预测。该部分的类别预测输出仅为0或者1,其中1表示前景(包含目标),0表示背景(不包含目标)。

① PASCAL VOC[25]数据集:VOC2007(9963张已标注的图片)和VOC2012(17125张已标注的图片)。

把诚信企业建设作为守法经营、诚信经营、自律经营的重要抓手,努力塑造上海化工良好的社会形象。截至2017年,上海在册登记诚信企业建设单位达80家,获得一星级诚信企业称号9家,二星级4家,三星级16家,四星级11家,五星级1家。这些诚信企业成为本市化工行业诚信标杆,获得了良好的社会公信度。

(2)每测温1次,应记录、计算每个测温点的升降值及温差值,及时绘制各点的温度变化曲线和断面的温度分布曲线。

②自建军事目标数据集:包含陆、海、空三个军种的军事目标,具体分为9类:战斗机、坦克、直升飞机、军舰、枪、导弹、加农炮、潜艇、士兵。数据集中包含了各种分辨率的图片,图片中包含了各个角度的军事目标,不仅如此,数据集中还包含了大量近景、远景军事目标(10000张已标注的图片)。

3.2 性能评价指标

1) 目标识别方法的准确性指标:

首先,给出目标识别中精确率P,召回率R的计算式分别为

width=52.95,height=26.65 , (4)

width=55.4,height=26.7 , (5)

式中:TP表示在一次测试中正确预测的正样本数量,FP表示在一次测试中被错分为正样本的数量,FN表示所有的被错误预测为负样本的正样本数量。

本文采用目前基于深度学习的目标识别方法中广泛使用的平均准确率width=24.05,height=12.05作为识别准确性指标。利用11点轴法分别计算某一类别目标的平均准确率width=17,height=11,如式(6)所示,再计算平均准确率width=24.05,height=12.05,如式(7)所示,式中:width=12,height=12为目标识别框架的类别总数。

width=114.95,height=39 , (6)

width=67.95,height=28 。 (7)

2) 目标识别方法的实时性指标:

本文采用测试时间和网络模型大小两个指标来评价目标识别方法的实时性指标。具体如下:

① 测试时间width=9,height=15:是指算法从任意图像帧数据读入到检测结果输出所需的时间,通常用毫秒(ms)作为其度量单位。在给定的软硬件条件下,当width=9,height=15取值越小,说明目标识别方法的实时性性能越好。

步骤5:算法收敛,训练结束。

width=102,height=28 , (8)

式中:width=11,height=10为卷积层数量;width=9,height=10为全连接层数;width=16,height=17为第i层卷积层参数量;width=16,height=18为第j层全连接层参数量;width=15,height=15为其他参数。

3.3 实验结果及分析

1) DRFCN方法的收敛性实验

本文首先在100万张的ImageNet[26]数据集上训练了针对1000个不同类别的分类模型;随后用预训练的分类模型初始化DRFCN基础网络部分和全连接部分,DRPN独有层的权值采用均值为0,方差为0.01的高斯分布随机初始化;最后对算法模型进行微调。根据稠密连接的卷积块数量差异,本文训练了两种极深的DRFCN模型,分别命名为DRFCN5、DRFCN16。DRFCN16算法收敛过程如图4所示,横坐标表示迭代次数,纵坐标表示对应的类别LOSS,总体LOSS(代价函数损失值),DRPN下采样区域分类LOSS和DRPN下采样算法坐标回归LOSS,算法总共迭代了15万次,DRFCN方法很快得到收敛。

为了进一步描绘DRFCN算法的收敛性,通过召回率和对应的精度之间的函数关系可以画出对应的PR曲线,PR曲线很好地表现一个分类器的性能,平均准确率width=24.05,height=12.05就是PR曲线下方的区域面积,所以要求曲线包围的面积越大越好。DRFCN算法的P-R曲线如图5所示,从图中可以看出:通过150000次迭代,算法很快收敛且分类器的性能表现也越来越佳。

2) 预训练模型分类准确性对比实验

DRFCN方法需要通过预训练模型对基础网络部分和全连接部分进行初始化。在100万张ImageNet数据集上针对1000个不同类别的分类模型,分别使用DRFCN方法和已有典型深度学习模型方法开展预训练,得到实验结果如表2所示。

步骤4:保持稠密连接的卷积层块权值不变,使用步骤3中DRPN生成的采样区域训练DFCN,这一步只微调DFCN独有的层;

从表2中可以看出,DRFCN16、VGG16、ResNet-101的Top-5准确率差距小于1%,但DRFCN16 网络模型大小分别是VGG16和ResNet-101的20.5%和55.2%。表明当分类准确率相同,DRFCN网络模型小于已有典型深度学习网络模型。即DRFCN方法可实现在大幅度压缩模型大小的情况下,获得和前沿算法相近的准确率。

②分类准确率分析:

从表2中可以看出,DRFCN5和ResNet-18的网络模型大小分别为50.8 MB和44.6 MB;但是,DRFCN5的Top-1和Top-5分类准确率对比ResNet-18,分别提高了4.5%和0.5%。表明:当模型大小相同,DRFCN可以取得更好的分类准确率。

3) DRFCN和已有方法的对比实验

基于VOC数据集的训练时间、测试时间和识别准确性比较实验结果,如表3所示。

从表3中可以看出,在VOC2007数据集上,DRFCN16平均准确率75.3%、每幅图像测试时间为0.12 s,VGG16的平均准确率69.9%、每幅图像测试时间0.42 s,相对VGG16,DRFCN16在平均准确率上提高了5.4%,在测试时间上减少了30 ms。结果表明,从识别结果的准确性和实时性分析,DRFCN方法整体性能优于VGG方法。

width=432,height=240.5

图4 DRFC16迭代收敛过程示意图

Fig. 4 Schematic diagram of the DRFC16 iterative convergence process

width=286.25,height=162.95

图5 精确率-召回率曲线

Fig. 5 Precision-recall curve

DRFCN16平均准确率75.3%、每幅图像测试时间为0.12 s,RFCN-101的平均准确率76.6%、每幅图像测试时间0.17 s,对于DRFCN16和RFCN-101,在平均准确率相当的情况下,DRFCN的测试时间减少了50 ms。结果表明,DRFCN16与RFCN-101的识别结果的准确性相当,但是DRFCN方法的实时性优于RFCN-101。这里,对DRFCN算法的实时性提高做具体的分析:在目标识别任务中,通过堆叠卷积层可以得到表达能力更强的特征,然而深度学习算法模型会面临梯度弥散和梯度膨胀的问题,何凯明等人提出的残差算法模型[17]解决了这一类问题。在RFCN-101残差网络中分别采用了如式(9)所示的前向传递表达式和如式(10)所示的反向传递表达式:

width=85.95,height=18 , (9)

width=95,height=30 , (10)

式中:width=8,height=13表示代价函数,width=13.95,height=15表示算法模型的第width=9,height=10层特征图,width=10,height=15表示第width=6,height=12层特征图的变换。而在本文提出的DRFCN算法中,前向传递过程和反向传递过程如式(11)、式(12)所示:

许多人都觉得大医院医疗设备先进、条件优越、治疗水平高,所以不管什么病都喜欢选大医院。殊不知,小病进大医院可能是走了“绕路”。

width=101,height=18 , (11)

width=95,height=30 。 (12)

通过对比残差网络可以发现,DFCN算法和残差算法模型反向传递表达式相同,但是前向传递表达式不同,利用稠密连接卷积层方式,梯度同样是通过和的方式在算法模型中反向传递。所以,DFCN算法加强了深度学习算法模型的特征表达能力,从而在较少的卷积操作计算的条件下,实现了模型特征提取能力的增强,使得模型在保证准确性的条件下实时性得到进一步提升。

表2 DRFCN在ImageNet 数据集上预训练模型大小及分类准确率比较

Table 2 Comparison of pre-training model sizes for DRFCN on ImageNet datasets

表3 DRFCN算法和前沿目标识别算法模型在VOC2007数据集上的比较

Table 3 Comparison of DRFCN algorithm and frontier target recognition algorithm model on VOC2007 dataset

表4 DRFCN16算法在自建的军事目标数据集上的平均准确率和测试时间

Table 4 The average accuracy and test time of DRFCN16 algorithm on the data set of the self-built military target

width=431.85,height=127.15

图6 DRFCN检测结果部分展示

Fig. 6 DRFCN test results display in part

4) 基于自建军事目标数据集的识别实验

在自建的军事目标数据集上测试了DRFCN算法,得到实验结果如表4所示,部分识别结果如图6所示。

从表4中可以看出,在具体的场景下,DRFCN算法在准确率上获得了77.5%,每幅图像测试时间为0.20 s,相比该算法在VOC数据集上,准确率提升了2.2%,测试时间减少了80 ms。该实验结果表明,DRFCN算法在准确率和实时性上满足军事目标识别任务。

4 结 论

本文提出了一个面向军事目标识别应用的DRFCN深度网络模型算法,该算法通过卷积模块稠密连接的方式,复用深度网络模型中每一层的特征,可以提高目标识别的平均准确率并且减小深度网络模型的大小。利用PASCAL VOC数据集,从目标识别准确率、实时性和网络模型大小等评价指标,对DRFCN算法和典型深度目标识别网络进行对比实验和分析,结果表明,DRFCN算法综合性能指标更优,并可有效的解决梯度弥散、梯度膨胀问题。进一步,利用自建的军事目标数据集,结合军事目标识别应用,使用DRFCN算法进行学习训练、测试、评价,验证了基于DRFCN的军事目标识别方法可以基本满足军事目标识别需求。一方面,DRFCN算法采取的稠密连接卷积模块的方式提高了目标识别准确率,缩减了模型大小,但是该算法还存在冗余,因此,如何在保持准确率的前提下,对DRFCN算法模型做进一步的压缩,是后续研究的一个方向;另一方面,如何将大数据处理技术和云计算技术与DRFCN算法相结合,提升军事目标识别的准确性,也是后续研究的重点。

四川省打造“川妹子”家政服务员品牌,从第一年开始就采取招投标项目管理。经过几年来的探索和完善,现在已比较规范。现在,四川省劳务品牌培训项目已经扩展到“川妹子”“川厨师”“川保安”“川建工”“川数控工”“川电子工”“川缝纫工”“外派农民工”“羌绣”“绵竹年画”等十多个品牌。

参考文献

[1] Nair D, Aggarwal J K. Bayesian recognition of targets by parts in second generation forward looking infrared images[J]. Image and Vision Computing, 2000, 18(10): 849–864.

[2] Crevier D, Lepage R. Knowledge-Based image understanding systems: A survey[J]. Computer Vision and Image Understanding, 1997, 67(2): 161–185.

[3] Bartlett T A. Simplified IR signature prediction for model-based ATR[J]. Proceedings of SPIE, 1993, 1957: 111–121.

[4] Watkins W R, CuQlock-Knopp V G, Jordan J B, et al. Sensor fusion: a preattentive vision approach[J]. Proceedings of SPIE, 2000, 4029: 59–67.

[5] Rogers S K, Colombi J M, Martin C E, et al. Neural networks for automatic target recognition[J]. Neural Networks, 1995, 8(7–8): 1153–1184.

[6] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//Proceedings of the 25th International Conference onNeural Information Processing Systems, 2012: 1097–1105.

[7] Dai J F, Li Y, He K M, et al. R-FCN: object detection via region-based fully convolutional networks[C]//30th Conference onNeural Information Processing Systems, 2016: 379–387.

[8] Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//2016IEEEConference on Computer Vision and Pattern Recognition, 2016: 779–788.

[9] Liu W, Anguelov D, Erhan D, et al. SSD: single shot MultiBox detector[C]//14thEuropean Conference on Computer Vision, 2016: 21–37.

[10] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580–587.

[11] He K M, Zhang X Y, Ren S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904–1916.

[12] Grauman K, Darrell T. The pyramid match kernel: discriminative classification with sets of image features[C]//Tenth IEEEInternational Conference on Computer Vision, 2005, 2: 1458–1465.

[13] Girshick R. Fast R-CNN[C]//Proceedings of the 2015 IEEE International Conference on Computer Vision, 2015: 1440–1448.

[14] Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137–1149.

[15] Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3431–3440.

[16] Wang Z L, Huang M, Zhu Q B, et al. The optical flow detection method of moving target using deep convolution neural network[J]. Opto-Electronic Engineering, 2018, 45(8): 180027.

王正来, 黄敏, 朱启兵, 等. 基于深度卷积神经网络的运动目标光流检测方法[J]. 光电工程, 2018, 45(8): 180027.

[17] Bengio Y, Simard P, Frasconi P. Learning long-term dependencies with gradient descent is difficult[J]. IEEE Transactions on Neural Networks, 1994, 5(2): 157–166.

[18] He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770–778.

[19] Srivastava R K, Greff K, Schmidhuber J. Training very deep networks[C]//Neural Information Processing Systems, 2015: 2377–2385.

[20] Huang G, Liu Z, Van Der Maaten L, et al. Densely connected convolutional networks[C]//2017IEEE Conference on Computer Vision and Pattern Recognition, 2017: 2261–2269.

[21] Szegedy C, Liu W, Jia Y Q, et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1–9.

[22] Zagoruyko S, Komodakis N. Wide residual networks[C]//Proceedings of theBritish Machine Vision Conference, 2016, 87(7): 1–12.

[23] Xie S N, Girshick R, Dollar P, et al. Aggregated residual transformations for deep neural networks[C]//2017IEEE Conference on Computer Vision and Pattern Recognition, 2017: 5987–5995.

[24] Gu Y, Xu Y. Fast SAR target recognition based on random convolution features and ensemble extreme learning machines[J]. Opto-Electronic Engineering, 2018, 45(1): 170432.

谷雨, 徐英. 基于随机卷积特征和集成超限学习机的快速SAR目标识别[J]. 光电工程, 2018, 45(1): 170432.

[25] Everingham M, Eslami S M A, Van Gool L, et al. The pascal visual object classes challenge: a retrospective[J]. International Journal of Computer Vision, 2015, 111(1): 98–136.

[26] Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database[C]//2009IEEE Conference on Computer Vision and Pattern Recognition, 2009: 248–255.

Design and implementation of DRFCN in-depth network for military target identification

Liu Jun1*, Meng Weixiu1, Yu Jie2, Li Yahui1, Sun Qiao1

1Fundamental Science on Communication Information Transmission and Fusion Technology Laboratory, Hangzhou Dianzi University, Hangzhou, Zhejiang 310018, China; 2China Shipbuilding Industry Corporation 715 Research Institute, Hangzhou, Zhejiang 310023, China

width=379.25,height=137.05

General structure diagram of DRFCN depth network model

Overview:Automatic target recognition (ATR) technology has always been the key and difficult point in the military field. Photoelectric detection is one of the key detection methods in modern early warning and detection information network. In actual combat, massive images and video data of different types, timings and resolutions can be obtained by optoelectronic devices. For these massive infrared images or visible light images, this paper designs and implements a DRFCN in-depth network for military target identification applications. Firstly, the DRFCN algorithm inputs images and the part of DRPN is densely connected by the convolution module to reuse the features of each layer in the deep network model to extract the high quality goals of sampling region; Secondly, in the DFCN part, we fuse the information of the semantic features of the high and low level feature maps to realize the prediction of target area and location information in the sampling area; Finally, the deep network model structure and the parameter training method of DRFCN are given. In the experimental analysis and discussion part: 1) Through a large number of experiments, we draw various types of LOSS curves and P-R curves to prove the convergence of the DRFCN algorithm. 2) On the pre-training classification model based on the ImageNet dataset, the DRFCN algorithm achieved 93.1% Top-5 accuracy, 76.1% Top-1 accuracy and the model size was 112.3 MB. 3) Based on the PASCAL VOC dataset, the accuracy of DRFCN algorithm is 75.3%, which is 5.4% higher than that of VGG16 network. The test time of the DRFCN algorithm is 0.12 s. Compared to VGG16, the test time was reduced by 0.3 s. The DRFCN algorithm has advantages over the existing algorithm. Therefore, it is superior to the existing depth learning based target recognition algorithm. At the same time, it is verified that the DRFCN algorithm can effectively solve the vanishing gradient and exploding gradient. 4) Using the self-made military target data set for experiments, the DRFCN algorithm has an accuracy rate of 77.5% and a test time of 0.20 s. Compared to the PASCAL VOC2007 dataset algorithm, the accuracy is increased by 2.2%. The time is reduced by 80 milliseconds. The results show that the DRFCN algorithm achieves the military target recognition task in accuracy and real-time. In summary, compared with the existing deep learning network, the comprehensive performance of the DRFCN algorithm is better. The DRFCN algorithm improves the recognition average accuracy, reduces the depth network model and effectively solves the vanishing gradient and exploding gradient.

Citation: Liu J, Meng W X, Yu J, et al. Design and implementation of DRFCN in-depth network for military target identification[J]. Opto-Electronic Engineering, 2019,46(4): 180307

Design and implementation of DRFCN in-depth network for military target identification

Liu Jun1*, Meng Weixiu1, Yu Jie2, Li Yahui1, Sun Qiao1

1Fundamental Science on Communication Information Transmission and Fusion Technology Laboratory, Hangzhou Dianzi University, Hangzhou, Zhejiang 310018, China; 2China Shipbuilding Industry Corporation 715 Research Institute, Hangzhou, Zhejiang 310023, China

Abstract: Automatic target recognition (ATR) technology has always been the key and difficult point in the military field. This paper designs and implements a new DRFCN in-depth network for military target identification. Firstly, the part of DRPN is densely connected by the convolution module to reuse the features of each layer in the deep network model to extract the high quality goals of sampling area; Secondly, in the DFCN part, we fuse the information of the semantic features of the high and low level feature maps to realize the prediction of target area and location information in the sampling area; Finally, the deep network model structure and the parameter training method of DRFCN are given. Further, we conduct experimental analysis and discussion on the DRFCN algorithm: 1) Based on the PASCAL VOC dataset for comparison experiments, the results show that DRFCN algorithm is obviously superior to the existing algorithm in terms of average accuracy, real-time and model size because of the convolution module dense connection method. At the same time, it is verified that the DRFCN algorithm can effectively solve the problem of gradient dispersion and gradient expansion. 2) Using the self-built military target dataset for experiments, the results show that the DRFCN algorithm implements the military target recognition task in terms of accuracy and real-time.

Keywords: deep learning; target recognition; PASCAL VOC dataset; military target

Supported by Naval Equipment Pre-research Innovation Project and National Natural Science Foundation of China (61333009, 61427808) * E-mail: gutlj@163.com

收稿日期:2018-06-04;

收到修改稿日期:2018-08-07

基金项目:海军装备预研创新项目;国家自然科学基金重点项目(61333009,61427808)

DOI:10.12086/oee.2019.180307

中图分类号:TP391.41;TB872

文献标志码:A

引用格式:刘俊,孟伟秀,余杰,等. 面向军事目标识别的DRFCN深度网络设计及实现[J]. 光电工程,2019,46(4): 180307

Citation: Liu J, Meng W X, Yu J, et al. Design and implementation of DRFCN in-depth network for military target identification[J]. Opto-Electronic Engineering, 2019, 46(4): 180307

作者简介:刘俊(1971-),男,博士,教授,主要从事信息融合、模式识别与智能系统、计算机视觉的研究。E-mail:gutlj@163.com

标签:;  ;  ;  ;  ;  ;  ;  

面向军事目标识别的DRFCN深度网络设计及实现论文
下载Doc文档

猜你喜欢