基于情报影像的战场目标聚集行为识别方法综述论文

【信息科学与控制工程】

基于情报影像的战场目标聚集行为识别方法综述

姜海洋1,刘翔宇1,赵洪利2

(1.航天工程大学 研究生管理大队, 北京 101416; 2.航天工程大学, 北京 101416)

摘 要: 针对聚集行为的识别问题,将常见的识别方法分为传统行为识别方法和基于深度学习的识别方法两类。介绍了各种方法的主要算法,总结和评估了各算法的优缺点,最后展望了聚集行为识别的发展趋势,为战场目标聚集行为识别研究提供了方向。

关键词: 情报影像;聚集行为;识别;卷积神经网络

战场目标聚集行为是联合作战环境常见的群体行为,其通常是兵力调整、战斗集结、突然袭击等重要作战事件的先兆[1]。预先识别敌方战场聚集行为,对评估战场情况,夺得战场作战先机具有重要意义。就目前而言,对战场聚集行为的识别还需要人工判读,在分秒必争的战场环境中效率低下,技术方面,国内外已有一些关于人体行为的识别算法,将智能识别算法引入对聚集行为进行识别,是智能化战场发展的必然趋势。

聚集行为识别工作主要分为两个过程:特征表征和行为的识别及理解。特征表征是在视频影像数据中提取能够表征这段视频关键信息的特征,这个过程在整个识别过程起了关键的作用,特征的好坏直接会影响到最终的识别效果。行为识别及理解阶段是将前一阶段得到的特征向量作为输入经过机器学习算法进行学习,并将在测试过程或应用场景中得到的特征向量输入到上述过程得到的模型中进行类型的识别[2]

开学时就要跟学生讲明, 高中政治科不管是平时考试、学业水平考试还是高考都是闭卷考试, 跟初中政治科开卷考试不同.要强调学生去背诵和记忆一些重要原理和知识点, 建立自己的知识库, 让自己在遇到问题时能够随时能从大脑中调动出相关的知识来解决.

行为特征提取算法早期有基于时空兴趣点,光流特征,剪影特征的计算方法。近年来随着深度学习(Deep Learning)理论,尤其是卷积神经网络(Convolution Neural Network,CNN)的发展,行为识别也得到了长足的发展[3-4]。本文在介绍传统算法的基础上,重点分析了基于卷积神经网络扩展算法在行为识别中的研究进展。

总体来说基于情报影像的战场目标聚集行为识别中的挑战来自以下几个方面:

2004年Laptev和Lindeberg最先提出时空兴趣点(STIP),本质上是基于Harris角点的时域扩展,通过在三维时空上进行对应的高斯模糊和局部角点提取,获取时空兴趣点并在时空兴趣点周围进行像素直方图的统计最终形成描述动作的特征向量。虽然这种方法可以对像机的对运动出现的跟踪误差进行补偿,但其缺点相当明显。如:只可以提取数量较少的稳定的兴趣点[5]。Dollar等[6]为时空维度添加高斯滤波器进行滤波,使检测出来的兴趣点数目就会随着局部邻域块的尺寸大小的改变而改变。Knopp等[7]将二维SURF(Speeded Up Robust Features)特征扩展到三维,3DSURF特征的每个单元包含了全部Harr-wavelet特征。

1)空间复杂性。不同光照、视角拍摄到的情报影像出现不同的战场背景,而在不同的战场背景中相同的战场目标行为会产生差异。即使在相同的战场背景中,聚集行为的特征空间依旧非常大,产生聚集行为的作战单元数目不确定,根据作战目标、任务分配、作战环境等差异,相同的作战任务可能出现不同的聚集行为,导致聚集行为特征空间大;

5.对道德的排除。由于科学技术的非政治化,使其将旧意识形态所关注的道德实践问题剔除出去,“技术统治的意识所反映的不是道德联系的颠倒和解体,而是作为生活联系的范畴——全部道德的排除。所以技术统治意识形态的核心是实践和技术的差别的消失。”[10](P70)

2)时间维度差异。在时间维度上,聚集行为是作战单元群体密度从低到高变化的时间序列。时间差异性是指聚集行为发生的时间点不可预测,而且行为的持续间隔也不尽相同。时间差异性要求识别过程中能够辨别行为的起止时间,同时有效判断行为作用的有效时间和间隔,对行为在时域和时序范围内进行更加细致的分析,导致聚集行为在不同速率、顺序和组合情况下都会存在差异。

综上所述,在京津冀协同发展的背景下,河北省高职院校“校园贷”法律教育引导机制从三个维度构建:“知”:通过加强河北省高职院校学生“校园贷”相关法律理论认识,构建法律意识体系,建立正确的法制观念;“情”:通过深入了解社会主义法制体系,增进学生对我国社会主义核心价值观产生价值认同;“意”:需要通过学以致用的社会实践活动,形成自觉懂法、守法、用法进而践行社会主义核心价值观的理想信念。

本文首先介绍课题的研究背景。第1节介绍传统的行为识别方法的研究成果。第2节介绍了多个深度学习算法的理论基础及其在行为识别上的研究进展。第3、4节介绍下一步研究方向和结论。

1 传统行为识别方法

传统行为识别方法一般是通过人工观察和设计,手动设计出能够表征动作特征的特征提取方法。光流特征和时空特征是目前动作识别中被普遍采用的表观特征。

1.1 时空特征

时空特征是将一段视频作为一个(x ,y ,t )三维空间中的时空体来分析和处理,既将序列图像在时间轴上级联,然后提取3维数据模式,如时空兴趣点、时空立方体等,用于动作描述。

这个题需要这样理解的,这两种病毒差别很大。虽然流行性腹泻病毒(其原料感染剂量为10)在饲料中更具传染性,但其感染性更易丧失。而非洲猪瘟病毒有很强的耐受性,可在很广的温度和pH值范围内存活。病毒可在粪便中存活11天、带骨肉中存活150天。因其耐受性在各种环境条件下的广泛传染性和稳定性使得非洲猪瘟病毒特别容易发生饲料源传播。

光流是行为识别中的一种重要动态特征,是运动物体在观测成像面上的像素运动的瞬时速度。1950年,Gibso首先提出了光流的概念,用于运动图像的分析。光流计算的基本假设是图像模式中的点(x ,y )在t 时刻的灰度值为I (z ,y ,t ),在较短的时间间隔内该值保持不变,即

关于翻译的研究,从“信、达、雅”到后来的“三美”理论,都有他们的必要性。但是总的来说,不论是什么作品的翻译,都不仅仅需要传达字面的意思,还应该根据不同国家的文化背景做适当的调整。对于英文电影字幕翻译,有它自己的特色。字幕是为了让观影者了解电影情节,有文化交际的功能。与此同时,字幕翻译的语言一般比较大众化,在逻辑性与艺术性等方面有着特殊的要求。

基于时空兴趣点的行为识别因角点检测技术的发展而容易实现,但是这类方法没有很好利用局部特征之间的空间几何关系。虽然基于时空立方体的行为识别依赖于其他特征的提取效果,但是对聚集行为识别这一研究热点有重要意义。

管理因素作为影响植物生长的人为因素,具有很强的变异性。在管理过程中,应注重总结实践经验。根据当地育苗特点,选择土壤酸碱度、肥力、含水量等进行播种。在造林后期,要加强植物的季节性管理,及时进行病虫害防治。

1.2 光流特征

时空立方体特征是一种将提取到的时空兴趣点进一步映射到一个立方体上进行表征的一种技术。Sae和Milanfar[8]用时空局部回归核(Space TimeLocal RegressionKernels,3DLSKs)对图像中人体动作进行表征,通过时空立方体的匹配完成动作识别。文献[9]也通过坐标变换利用一个LED时空立方体将Kinect构建的三维人体关节模型进行表征。

从而得到光流约束方程:

然后通过假设光流在整个图像上的变化平滑这一约束条件完成光流约束方程的求解。Efros等[8]利用光流信息实现一定距离上人体动作的识别。Zhang[11]根据光流场的二值图像构建目标模板,通过目标匹配的方法实现物体追踪。Mahbub[12]用光流场中特征点水平和垂直方向的平均差和标准差计算实现对运动及方向的检测。基于光流技术的行为识别容易受光照和遮挡的影响,为克服这一缺陷,近年来开展许多相关研究。2009年Wang等[13]用稠密光流轨迹将运动场景分割为前景与背景,并使用运动边界编码,这种方法对无规则的动作更具鲁棒性,对复杂动作的捕获更为精确。光流法的优点是当摄像机运动时时也能准确提取特征,但是光流法有着不容忽视的缺点,即便是目前最好的光流计算法算法,也存在着噪声,同时计算复杂度高。

卷积神经网络(Convolution Neural Network,CNN)是基于深度学习理论的一种人工神经网络,在静态图像识别问题中取得了空前的成功。双流卷积神经网络由两路卷积神经网络和模型融合部分组成。图1是双流卷积神经网络结构框图。空间流输入为单帧的RGB图像,用于识别一些和行为相关的表面特征。时域流的输入为光流堆,既多帧光流图,用于学习视频中时域的行为信息。

文献[14]首次提出双流卷积神经网络的概念,K.Simonyan等以单帧RGB作为输入的CNN来处理空间维度的信息,使用以多帧密度光流场作为输入的CNN来处理时间维度的信息,并通过多任务训练的方法将两个行为分类的数据集联合起来(UCF101与HMDB),去除过拟合进而获得更好效果。空间流与时间流在不同的位置融合,网络识别精度会有不同的效果,C.Feichtenhofer等[15]改进双流卷积神经网络结构,在Conv5卷积层对时空网络进行融合,并使用VGG深度模型替换了AlexNet,在UCF101数据集上的识别率高达92.5%。针对前期行为识别网络仅能处理短期行为的问题,文献[16]在双流卷积网络的基础上提出时域分割网络(TSN),L.Wang首先使用稀疏时间采样策略和基于视频监督的策略,将视频进行时域分割后随机抽取片段,来弥补双流卷积网络智能处理短期视频的问题,然后使用交叉预训练、正则化技术和数据扩张技术来弥补双流卷积网络的理解能力不足的问题。

2 基于深度学习的行为识别方法

文献[22]提出了使用3D卷积核对连续视频帧数据立方体进行特征提取,这种操作一次性对多帧图像进行处理,可以同时捕捉到时间维度和空间维度上的特征信息,该文章证明3D卷积比2D卷积更能完好的捕捉运动和外观。该算法配合iDT与SVM在UCF-101数据集上的识别率达到90.3%。文献[23]提出P3D算法,将3D卷积核拆分为2D卷积核与1D卷积核的级联,在大幅度降低了卷积的运算量的同时,获得了不错的检测准确率。文献[24]针对3D-CNN无法对长时域信息充分挖掘的问题,改进时域3D卷积核,用时域变换层TTL来替换pooling层,提出了T3D网络,实现了端到端的训练。

2.1 双流卷积神经网络(Two-Stream CNN)算法

传统行为识别方法具有直观、易于理解的优点。时空兴趣点、时空立方体的特征提取方式可以获得较长时间的的动态特性,对遮挡等事件的处理更加鲁棒有效。光流特征可以表征出物体的运动趋势。以上方法在一定程度上解决了行为识别的问题,但算法的准确率主要取决于所提取的特征是否能对数据特点有良好的表达,当面对复杂的行为影像时,这些特征的描述能力可能变得十分有限。虽然多特征融合可以提高特征提取能力,但人工挑选的特征在一定程度上难以融合。此外,特征提取耗时较长,导致效率低下。这些缺陷在一定时间内难以解决。深度学习的提出,为行为识别提供了一种新的思路。

图1 双流卷积神经网络结构框图

母液循环套用时,作为起催化作用的甲醇钠不加或者减少加入量是否对产品的收率有一定的影响?在保持其他反应条件不变的前提下,逐步增加甲醇钠的量,观察收率与含量的变化,如表4所示。

总体来看,网络编辑作为媒介信息的“把关人”,要在新的信息传播生态环境中更好地履行好工作职责,承担好应尽的社会责任,把握好信息传播的边界和标准,提升编发内容信息质量,就必须具备更高的媒介素养。作为网络媒体从业人员只有具备更高的媒介素养,提升把关能力,才能更好地担当起媒体人应有的社会责任,才能当好媒介信息的“守门人”,当好信息受众的“引导者”,也才能不被社会环境所制约,实现文化信息宣传工作创新。

2.2 循环神经网络(RNN)及其扩展算法

传统的循环神经网络(RNN)从理论上可建立长时间间隔状态之间的依赖关系,但是训练过程会出现梯度爆炸或消失,实际上只能学习到短周期的依赖关系。Hochreiter与Schmidhuber提出一个很好的解决方法,引入门机制控制信息的积累速度,设置遗忘处理,选择遗忘之前累积的信息,即LSTM单元。LSTM单元是循环神经网络的变形模式,能够有效地解决传统循环神经网络的梯度爆炸或梯度消失问题[17]

加州大学伯克利分校的Donahue等[18]使用长短期记忆网络(LSTM)对视频的时间信息进行建模,挖掘视频帧与帧之间的信息,不仅利用了帧的空间信息,还利用了视频的时序信息,进而生成针对一段视频的语言描述,完成了视频中动作的分类以及语句标注。将LSTM与CNN相结合能够对特征进行更完整的学习,文献[19]将LSTM与CNN结合提出长期循环卷积神经网络(LRCN),利用CNN网络提取各帧的空间特征,将CNN网络的输出调整规模依次输入到LSTM网络来获取序列时序特征,并计算各个时刻LSTM输出的平均值,输出最后的分类结果。充分利用RNN在时间T 上的展开相当于多层,且时间序列中权重W 在每个时间步骤上都是复用的特点,使得网络严格按照时间步骤来学习而不会导致参数的成比例增长。但是其算法的识别准确率不及two-stream。文献[20]提出利用特征池化,LSTM+soft组合的方式处理视频段中的时间信息,算法在长时视频的处理方面具有长足的优势。视频需要更高维度的特征去表达,从而需要收集更多带标签的数据并进行大量的数据标记工作,针对这个问题,文献[21]引入LSTM+Autoencoder的组合来对视频特征进行无监督学习,该文章在创新方面可分为两点:借助可视化手段能够分析问题;通过无监督学习对有监督学习参数进行初始化,提升有监督学习处理分类任务的能力。

2.3 3D卷积神经网络算法

传统的视频影像处理主要采用2D卷积进行特征提取,然后在对行为识别,由于行为动作连续帧之间具有一定的规律性,因此2D卷积无法根据这一特性进行特征提取。为了有效的综合运动信息,因此3D卷积被提出来。图2为2D卷积与3D卷积的区别。3D卷积最大的特性是能够在连续视频帧数据立方体中进行特征提取,这种操作可以同时捕捉到时间维度和空间维度上的特征信息,且该操作一次性对多帧图像进行处理。

其中,2008年由北京市建设工程物资协会建筑节能专业委员会牵头开展的外保温火灾事故调查研究得到了广泛地关注和认同。通过对我国当时已发生的数十起典型外保温火灾事故总结分析,课题组将火灾的发生划分为三个时段:保温材料进入施工现场码放时段、保温材料施工上墙时段以及外墙外保温系统投入使用时段。调查结果表明90%以上的外保温火灾均发生在施工阶段,主要是由于立体交叉作业时被电焊火花或其他明火引燃,当然某些保温材料的燃烧性能不符合相关产品标准要求也是原因之一。另有少部分是建筑物投入使用后,由外因引发的火灾,外保温系统中的有机保温材料被引燃,由于缺乏有效的防火隔离措施,进一步助长了火势的蔓延。

图2 2D卷积与3D卷积

深度学习(Deep Learning)目前作为机器学习领域的火热的一个分支,在结构上,深度学习的网络模型拥有了更深的层次。当样本足够多时,深度网络学习到的特征往往具有一定的语义特征,适合提取目标和行为的抽象特征。目前为止,图像分类和目标检测等基于图像的任务已经在深度学习(尤其是卷积神经网络)的推动下实现了革命性的发展。根据时序建模方式的不同,基于深度学习的行为检测方法可以分为:基于双流卷积神经网络(Two-Stream CNN)的模型、基于3D卷积核的3D-CNN模型、基于循环神经网络的LSTM模型。

深度学习技术在个体行为识别方面表现突出。双流卷积神经网络使用两个二维卷积神经网络提取特征,在网络末端充分融合空间信息与时序动态信息,识别准确率得到了提高。循环神经网络(RNN)及其扩展算法使用CNN提取空间特征,利用RNN提取时序特征。3D卷积神经网络利用3D卷积核同时捕获空间与时序信息,提高了识别速度。上述模型的共同点是将行为检测任务设计成一个端到端的学习模型。与需要大量专业知识和经验的人工特征相比,深度学能通过深层架构自动学习数据特征,这是深度学习方法的关键优势。现存的基于深度学习的行为识别算法表现优异的一方面原因是充分利用了单帧信息,但战场目标聚集行为是一种群体行为,提取单帧级别特征意义较小,设计一种可以充分提取时间维度特征的网络结构是亟待解决的问题,其中一种解决思路是使用视频流取代单帧图像输入网络。

3 研究难点与未来研究方向

聚集行为识别存在的难点主要有:

1) 连续行为的分割和长时视频中动作的识别。一段影像中可能含有包括聚集行为在内的多个行为动作,行为动作之间没有明显的边界指示。现有的动作识别算法大多数是对已经从时间域分割好的视频片断来进行分类,而不能识别长时视频中发生的多个动作,也不能定位事件发生的开始帧和结束帧。

2) 大量训练集的标注。训练适用于聚集行为识别的深度学习算法势必需要大规模的数据集,目前现有的数据库中的数据集数量有限,如何对大量的视频进行标注是一个问题。利用人工标注的方法费时费力。这就需要视频数据的自动标注工具。

聚集行为研究也有许多值得进一步研究与努力的方向:

1) 识别的速度问题。现有的深度学习影像识别算法的参数规模随着网络层数的增多而扩大,导致算法的识别速度下降。由于战场环境快速变化和不可预测性,对算法的识别速度提出了较高的要求。如何从网络结构入手,在保证识别率的基础上提高识别速度是研究者们追求的目标。

2) 真实场景下的行为识别问题。早期的行为识别算法的研究都是在较为简单的数据集上进行的,这类数据集中的视频画面往往干扰较少,有固定的事件主题目标。但是实际情况下,包含聚集行为的影像资料往往有分辨率较低,场景复杂,光照变化等问题,因此行为识别算法还有广阔的发展空间。

4 结论

战场目标聚集行为识别对推动战场智能化发展具有重要的现实意义。本文在回顾传统识别算法的基础上,对近年来提出的基于深度学习的行为识别算法逐一介绍与总结分析,为下一步研究指明了方向。人工智能技术为战场智能化发展提供了发展动力,但同时存在不少困难,对其研究任重道远。

参考文献:

[1] 廖鹰.基于三维卷积神经网络的战场聚集行为预测[J].系统仿真学报,2018(3):801-808.

[2] 朱煜.基于深度学习的人体行为识别算法综述[J].自动化学报,2016(6):848-857.

[3] WANG K,WANG X,LIN L,et al.3D Human Activity Recognition with Reconfigurable Convolutional Neural Networks[C]//Proceedings of the ACM International Conference on Multimedia New York,2015.

[4] DING C,FAN S,ZHU M,et al.Violence Detection in Video by Using 3D Convolutional Neural Networks[J].Advances in Visual Computing,2014(1):551-558.

[5] LIN M,CHEN Q,YAN S.Network In Network[J].Computer Science,2014(1):848-857.

[6] DOLLAR P,RABAUD V,COTTRELL G,Belongie S.Behavior recognition via sparse spatio-temporal features[C]//Proceedings of the 2005 IEEE International Workshop on Visual Surveil lance and Performance Evaluation of Tracking and Surveil lance.Beijing,2005.

[7] KNOPP J,PRASAD M,WILLEMS G,et al,Van Gool L.Hough transform and 3D SURF for robust three dimensional classiflcation[C]//Proceedings of the 11th European Conference on Computer Vision.Berlin,2010.

[8] SEO H J,MILANFAR P.Action Recognition from One Example[J].IEEE Trans on Pattern Analysia and Machine Intelligence,2011,33(5):867-882.

[9] ZHENG Xiao,FU Mengyin,YANG Yi,et al.3D Human Postures Recognition Using Kinect[C]//Proc of the 4th International Confer ence on Intelligent Human-Machine Systems and Cybernetics.Nanchang,2012.

[10]EFROS A,BERG A,MORI G,et al.Recognizing Action at A Distance[C]//Procc of the 9th IEEE International Conference on Computer Vision.Nice,France,2003.

[11]ZHANG Haiyan.Multiple Moving Objects Detection and Tracking Based on Optical Flow in Polar-Log Images[C]//Proc of the International Conference on Machine Learning and Cybernetics.Qingdao,China,2010.

[12]MAHBUB U,IMTIAZ H,RAHMAN AHAD M A.An Optical Flow Based Approach for Action Recognition[C]//Proc of the 14th International Conference on Computer and Information Technology.Dhaka,Bangladesh,2011.

[13]CHAQUET J M,CARMONA E J.A survey of video datasets for human action and activity recognition[J].Computer Vision & Image Understanding,2013,117(6):633-659.

[14]SIMONYAN K,ZISSERMAN A.Two-stream convolutional networks for action recognition in videos[J].NIPS,2014(2):111-119.

[15]FEICHTENHOFER C,PINZ A,ZISSERMAN A.Convolutional two-stream network fusion for video action recognition[J].CVPR,2016(2):111-119.

[16]WANG L,XIONG Y,WANG Z,et al.Temporal segment networks:Towards good practices for deep action recognition[J].ECCV,2016(1):89-95.

[17]BACCOUCHE M,MAMALET F,WOLF C,et al.Sequential deep learning for human action recognition[C]//International Conference on Human Behaviour Unterstanding.Springer Verlag,2011.

[18]DONAHUE J,HENDRICKS L A,GUADARRAMA S,et al.Long-term recurrent convolutional networks for visual recognition and description [C]//IEEE Conference on Computer Vision and Pattern Recognition.Boston,2015.

[19]吴昊,平鹏,孙立博.基于改进LRCN模型的驾驶行为图像序列识别方法[J].江苏大学学报(自然科学版),2018,200(3):60-65,86.

[20]HAUSKNECHT M,VIJAYANARASIMHAN S,VINYALS O,et al.Beyond short snippets:Deep networks for video classification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Boston,2015.

[21]SRIVASTAVA N,MANSIMOV E,SALAKHUDINOV R.Unsupervised learning of video representations using lstms[C]//International Conference on Machine Learning.Lille,2015.

[22]TRAN D,BOURDEV L,FERGUS R,et al.Learning spatiotemporal features with 3D convolutional networks[C]//International Conference on Computer Vision.Santiago,2015.

[23]QIU Z,YAO T,MEI T.Learning spatio-temporal representation with pseudo-3D residual networks[C]//International Conference on Computer Vision.Venice,2017.

[24]DIBA A,FAYYAZ M,SHARMA V,et al,Arzani MM.Temporal 3D ConvNets:New Architecture and Transfer Learning for Video Classification[J].Computer Science,2017(1):85-95.

Survey of Battlefield Target Aggregation Behavior Recognition Methods for Information Imagery

JIANG Haiyang1, LIU Xiangyu1, ZHAO Hongli2

(1.Department of Graduate Management, Space Engineering University, Beijing 101416, China; 2.Space Engineering University, Beijing 101416, China)

Abstract: Aiming at the identification problem of aggregation behavior, the common recognition methods were divided into two types: traditional behavior recognition method and deep learning-based recognition method. The main algorithms of various methods were introduced. The advantages and disadvantages of each algorithm were summarized and evaluated. Finally, the development trend of aggregation behavior recognition was prospected, which provides a direction for the research on battlefield target aggregation behavior recognition.

Key words: information imagery; aggregation behavior; recognition; convolution neural network

doi: 10.11809/bqzbgcxb2019.07.027

收稿日期: 2018-11-20;修回日期:2019-01-11

基金项目: 装备预研基金资助项目

作者简介: 姜海洋(1995—),男,硕士,主要从事网络信息安全研究,E-mail:962113660@qq.com。

通讯作者: 赵洪利(1964—),男,博士,教授,主要从事网络信息安全研究。

本文引用格式: 姜海洋,刘翔宇,赵洪利.基于情报影像的战场目标聚集行为识别方法综述[J].兵器装备工程学报,2019,40(7):133-137.

Citation format:JIANG Haiyang, LIU Xiangyu, ZHAO Hongli.Survey of Battlefield Target Aggregation Behavior Recognition Methods for Information Imagery[J].Journal of Ordnance Equipment Engineering,2019,40(7):133-137.

中图分类号: TP183;E919

文献标识码: A

文章编号: 2096-2304(2019)07-0133-05

(责任编辑 杨继森)

标签:;  ;  ;  ;  ;  ;  

基于情报影像的战场目标聚集行为识别方法综述论文
下载Doc文档

猜你喜欢