首页 > 范文大全 > 正文

基于两阶段投票的小样本目标检测方法

开篇:润墨网以专业的文秘视角,为您筛选了一篇基于两阶段投票的小样本目标检测方法范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

摘 要:为了在只有几个样本的情况下在待检测图像中采用模板匹配的方式定位目标,提出了一种两阶段投票的目标检测方法。首先采用概率模型通过几个样本离线构造投票空间,然后采用两阶段投票的方式在待测图像中检测目标:第一阶段在待测图像中通过投票检测目标的图像块,并记录下这些部件块在样本中所处的位置信息;第二阶段基于第一阶段所得到的图像块来投票计算样本整体的相似度,从而定位目标。理论推导和实验结果验证了所提出方法比前人的工作具有更低的时间复杂度和更高的目标检测准确率。

关键词:投票空间;小样本;概率模型;目标检测;相似度

0 引言

近年来,由于信息技术的不断发展和现实应用的需要,基于图像的目标检测引起了越来越多的关注。传统的基于分类器的模式识别方法往往需要大量的样本进行训练[1-5],但是,现实中的许多应用(例如网络图像检索、机场安检、视频中的无索引目标检测等)往往只能采集到目标的少量样本。在这些应用中,基于少量样本的模板匹配方法显得更加实用。

本文主要针对的问题是:在只有几个样本的情况下如何在待检测图像中采用模板匹配的方式定位目标。设计一个鲁棒性较强的模板匹配方法现阶段仍然是一个较困难的问题[6]。前人已有不少研究模板匹配的工作,首先,针对单个样本的情况,Shechtman等[7]基于局部自相似特征来进行模板匹配,该工作针对单个样本的情况来进行目标检测;Sibiryakov[8]基于投影量化的梯度直方图(Projection and Quantization Histogram of Gradient, PQHOG)特征构造了索引结构,从而采用投票的方式来定位目标;Seo等[9]基于局部自适应可操作核(Locally Adaptive Regression Kernel, LARK)特征采用滑动窗口的方式在目标图像中检测目标。然后,针对少量样本(多于1个,通常3~10个样本)的情况,文献[10-11]中采用了局部自适应可操作(Locally Adaptive Steering, LAS)特征,通过少量样本训练投票空间,然后采用滑动窗口的方式检测目标。采用少量样本的工作和前人单样本的工作相比,在目标抗性变方面具有较大的优势[11],多个样本采用训练投票空间的方法能够得到关于目标的具有一定形变范围的投票空间,从而能进一步提升目标检测的准确性。但是,文献[10-11]中的工作存在如下不足:一是投票空间仅仅采用了特征的最大值减去最小值作为对应特征的容忍度,缺少一定的理论合理性;二是采用滑动窗口的方式,效率太低,对于大小为m×n的训练样本,要在大小为M×N的待测图像中检测与样本同样大小的目标,其时间复杂度为O((M-m)×(N-n)×m×n)。

根据上述两个问题,本文提出了一种基于少量样本的图像块的两阶段投票方法。首先采用概率模型来描述投票空间的容忍度并用少量样本来训练该投票空间,然后采用两阶段投票的方式在待测图像中定位目标:第一阶段检测在待测图像中检测目标的部件块,并记录下这些部件块在样本目标中所处的位置信息;第二阶段再基于这些部件快来计算样本整体的相似度,从而定位目标。

本文对投票空间中每个位置的容忍度采用高斯模型来表示,能够提升目标检测的准确率;同时通过两阶段投票使时间复杂度从文献[10]中的O((M-m)×(N-n)×m×n)降到了本文中的O((M/r)×(N/t)×m×n)。

本文采用梯度直方图(Histogram of Oriented Gradient,HOG)特征来表征图像,该HOG特征能够稳定地表达图像局部信息[12-14],但是,本文所提出的方法不仅仅限于该HOG特征,同样适用于其他特征(如LARK[9]、LAS[10-11]等)。

1 投票空间的训练

基于少量样本的投票空间具有比单样本方法更强的抗形变功能[10-11]。在前人的工作[4,16-18]中,投票空间均是采用统一的、固定大小的取值,这样的取值无法自适应地反映出对应位置的特征取值的容忍度,而文献[10-11]首次提出了对投票空间的训练,从而使得投票空间中不同位置的特征取值容忍度具有了自适应性;但是,采用的方法仅仅是在投票空间的每个位置用最大样本取值和最小样本取值来作为特征取值的容忍度。与文献[10-11]类似,本文同样采用少量样本来训练投票空间,不同在于本文基于概率模型来对投票空间进行训练。

4 结语

本文基于少量样本的情况,提出了一种采用两阶段投票的方式来进行目标检测的方法,首先采用概率模型来描述投票空间的容忍度并用少量样本来训练该投票空间;然后采用两阶段投票来定位目标:在第一阶段的投票中,定位出目标的图像块;在第二阶段的投票中,针对已定位的图像块再对整个目标进行检测。对比实验的结果表明,本方法相比之前的基于少量样本的工作在计算效率和检测率上都有提升。

参考文献:

[1]AN S, PEURSUM P, LIU W, et al. Efficient algorithms for subwindow search in object detection and localization [C]// CVPR 2009: Proceedings of the 2009 IEEE Conference on Computer Vision and Patter Recognition. Piscataway: IEEE, 2009: 264-271.

[2]TIAN Y, TIAN S, XU Y, et al. Image object detection based on local feature and sparse representation [J]. Journal of Computer Applications, 2013, 33(6): 1670-1673. (田元荣,田松,许悦雷,等.基于局部特征和稀疏表示的图像目标检测算法[J].计算机应用,2013,33(6): 1670-1673.)

[3]YUAN F. Codebook generation based on selforganizing incremental neural network for image classification [J]. Journal of Computer Applications, 2013, 33(7): 1976-1979. (袁飞云.基于自组织增量神经网络的码书产生方法在图像分类中的应用[J].计算机应用,2013,33(7): 1976-1979.)

[4]LEHMANN A, LEIBE B, GOOL L. Feature centric efficient subwindow search [C]// CVPR 2009: Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2009: 940-947.

[5]MUTCH J, LOWE D G, Multiclass object recognition with sparse, localized features [C]// CVPR 2006: Proceedings of the 2006 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2006: 11-18.

[6]BRUNELLI R. Template matching techniques in computer vision: theory and practice [M]. Hoboken: John Wiley and Sons, 2009.

[7]SHECHTMAN E, IRANI M. Matching local self similarities across images and videos [C]// CVPR 2007: Proceedings of the 2007 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2007: 1-8.

[8]SIBIRYAKOV A. Fast and highperformance template matching methods [C]// CVPR 2008: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2008: 1-8.

[9]SEO H J, MILANFAR P. Trainingfree, generic object detection using locally adaptive regression kernels [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1688-1704.

[10]XU P, YE M, LI X, et al. Object detection using voting spaces trained by few samples [J]. Optical Engineering, 2013, 52(9): 093105.

[11]XU P, YE M. FU M, et al. Object detection based on several samples with training Hough spaces [C]// CCPR 2012: Chinese Conference of Pattern Recognition, CCIS 321. Berlin: SpringerVerlag, 2012: 235-242.

[12]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection [C]// CVPR 2005: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2005: 1-8.

[13]FELZENSZWALB P, MCALLESTER D, RAMANAN D. A discriminatively trained, multiscale, deformable part model [C]// CVPR 2008: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2008: 1-8.

[14]TANG D, LIU Y, KIN TK. Fast pedestrian detection by cascaded random forest with dominant orientation templates [C]// BMVC 2012: Proceedings of the 2012 British Machine Vision Conference. Nottingham: BMVA Press, 2012: 1-11.

[15]PELE O, WERMAN M. The quadraticchi histogram distance family [C]// ECCV 2010: Proceedings of the 2010 European Conference on Computer Vision, LNCS 6312. Berlin: SpringerVerlag, 2010: 749-762.

[16]RAZAVI N, GALL J, GOOL L. Scalable multiclass object detection [C]// CVPR2011: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2011: 1505-1512.

[17]ZHANG Y, CHEN T. Weakly supervised object recognition and localization with invariant high order features [C]// BMVC 2010: Proceedings of the 2010 British Machine Vision Conference. Nottingham: BMVA Press, 2010: 47.1-47.11.

[18]GODEC M, ROTH P M, BISCHOF H. Houghbased tracking of nonrigid objects [C]// CVPR 2011: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2011: 81-88.

[19]BALUJA H, KANADE T. Neural network based face detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(1): 22-38.

[20]AGARWAL S, AWAN A, ROTH D. Learning to detection objects in images via a sparse, partbased representation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(11): 1475-1490.

[21]KAPPOR A, WINN J. Located hidden random fields: learning discriminative parts for object detection [C]// ECCV 2006: Proceedings of the 2006 European Conference on Computer Vision, LNCS 3953. Berlin: SpringerVerlag, 2006: 302-315.