学术咨询服务正当时学报期刊咨询网是专业的学术咨询服务平台!
发布时间:2021-06-15 16:27所属平台:学报论文发表咨询网浏览: 次
摘要:为了解决多个尺度相关响应图最大值对应位置与目标真实位置存在偏差的问题,本文提出了一种采用多边形质心的相关滤波跟踪位置校正方法。首先,本文提出一种相关响应图评价指标对响应图的质量进行评价,并对当前帧跟踪结果进行可信判别;接着,对判别为不
摘要:为了解决多个尺度相关响应图最大值对应位置与目标真实位置存在偏差的问题,本文提出了一种采用多边形质心的相关滤波跟踪位置校正方法。首先,本文提出一种相关响应图评价指标对响应图的质量进行评价,并对当前帧跟踪结果进行可信判别;接着,对判别为不可信的跟踪结果采用多边形顶点的质心进行校正,以减少跟踪结果与目标正确位置的偏差。最后,在TB50、TB2015和AV20三个基准视频集上对本文算法进行性能评估实验,本文算法在TB50、TB2015和AV20的成功率曲线面积分别达到了0.625、0.668和0.429,跟踪精度分别达到了0.844、0.885和0.578。结果表明,与近年来主流的跟踪算法相比,本文算法在多种复杂场景下都取得了较优的成功率曲线面积和跟踪精度。
关键词:目标跟踪;相关滤波;位置校正;多边形质心
1引言
视频目标跟踪是计算机视觉领域的一个重要分支,由于该技术能够根据目标的初始信息确定后续视频帧中目标的位置、大小以及运动轨迹等信息,因此被广泛应用到人机交互、机器人视觉、导弹制导等各军事、民事领域中[1]。尽管近年来目标跟踪算法在准确性和鲁棒性上有了突破性的进展,然而由于现实环境中存在相似物的干扰、光照突变、部分或完全遮挡、运动模糊等复杂因素,使得目标跟踪仍然是一个具有挑战性的研究问题。Bolme等[2]首次将相关滤波的概念引入到视频目标跟踪中,提出了最小输出误差平方和滤波(MinimumOutputSumofSquaredError,OSSE)算法,该算法能够高效的区分目标与背景,并且通过计算峰值旁瓣比以判断目标是否被遮挡,既保证了一定的跟踪准确性,同时也能够满足跟踪过程中实时性的要求。
ang等[3]提出的基于循环特征映射的边缘目标跟踪(argeMarginObjectTrackingwithCirculantFeatureMaps,LMCF)算法采用多峰检测的方法来判别目标是否被干扰,并提出了高置信度的模型更新策略。同样Zhu等[4]认为由于跟踪场景中存在干扰,因此每一帧或固定间隔帧对模型进行更新是不合理的,因此他们的统一卷积网络(nifiedConvolutionalNetworks,UCT)算法提出了峰值噪声比(eakversusnoiseRatio,PNR)并根据NR和最大响应值比值的历史均值的被动情况来判断模板是否更新。白中浩[5]基于多模型融合跟踪提出了一种可靠性判断依据以检测跟踪结果的可靠性,从而实现跟踪的稳定性。
上述算法皆认为当目标受到多种复杂场景的干扰后,可能会使得模板学习到大量的错误信息而导致漂移,因此需要采用一个判别机制对当前帧的跟踪结果进行判别,从而提高算法的跟踪质量。大多数基于相关滤波的目标跟踪算法是根据相关响应图最大值的对应位置作为目标的跟踪结果,然后用该跟踪结果作为新样本更新模板以适应目标的变化。anellja等[6]提出的基于精确尺度估计的相关滤波跟踪(iscriminativeScaleSpaceTracker,SST)算法在二维的位置滤波器上采用了33个尺度以适应目标大小的变化,并通过调整跟踪框的比例来得到响应值最大的对应尺度和位置。
1.1算法分析
TRCF在CF框架中加入了时间和空间正则化系数,不仅能够在遮挡和目标表观形变中具有更好的跟踪性能,并且能够满足跟踪过程中的实时性要求。基于传统的相关滤波跟踪框架,TRCF算法通常采用多个尺度相关响应图最大响应值的对应位置作为目标的跟踪结果,在理论情况下是可行的。然而在实际的跟踪场景中,目标往往会遇到背景混乱、光照变化、平面内外旋转、遮挡、离开视野等场景的干扰,此时对最大响应值对应的候选样本不加以判别直接将其作为跟踪结果可能会导致跟踪失败。
2采用多边形质心的跟踪位置校正
2.1改进算法总体框架
本文算法是基于TRCF[8]算法的改进。在特征提取部分,本文算法针对灰度视频序列融合方向梯度直方图(HistogramofOrientedGradient,OG)[15]、灰度和强度通道(IntensityChannels)[16]特征进行特征提取;而针对彩色视频序列,本文算法则融合OG、灰度和颜色特征(ColorName)[17]特征完成对目标的表达。
本文算法的改进点如图阴影部分所示包括两个方面:1)计算相关响应图评价指标,判别当前帧跟踪结果是否可信;2)针对不可信的跟踪结果,采用多边形顶点的质心对当前帧跟踪结果进行校正。
2.2跟踪结果的可信判别
理想情况下大多数相关滤波跟踪算法都以最大响应值的对应位置和尺度作为跟踪结果,且每一帧跟踪结束之后都会采用当前帧跟踪结果作为新样本更新模板。当目标受到干扰时,当前帧的最大响应值并不能完全作为评估跟踪结果的标准。
当场景中光照发生变化、混乱或者目标的外观、大小改变,甚至受到遮挡等情况,最大响应值容易忽略了跟踪过程中发生的波动,此时相关响应图中主次峰之间的差异较小,并且由于算法缺少跟踪结果的可信判别机制,因此跟踪算法无法确认该跟踪结果是否精确。然而不考虑该跟踪结果是否准确,直接将其作为目标样本进行模板更新,可能会引入大量的背景噪声或忽略目标信息,从而使得目标模板发生漂移,进而导致后续帧跟踪失败。
根据上述分析,理想情况下,响应矩阵是只有一个峰值的高斯分布,然而当目标受到各种复杂因素的干扰后,其相关响应图会剧烈波动并呈现多峰状态,统一卷积网络跟踪(CT)[4]算法中采用峰值噪声比(NR)揭示相关响应图的分布情况。然而,由于每一帧响应图都具有不同的数值范围minmaxRR,导致各视频帧之间或不同视频之间难以进行统一调参。
2.3跟踪结果位置校正
根据基于相关滤波目标跟踪算法的基本思想可知,相关响应图中每个响应值都表示其所对应的样本与目标模板的匹配程度。对于单个响应图而言,其响应值越大表示它所对应的样本与模板的匹配程度就越高,因此我们总是期望找到响应值最大的对应位置作为目标的跟踪结果。然而对于多个响应图而言,不同尺度之间的响应值并不具备绝对的可比性,因此它们各自的最大响应值的对应位置都是可能的目标位置。
基于相关滤波的跟踪算法采用多个尺度响应图中最大值对应位置作为目标的跟踪结果。但在实际的跟踪过程中,目标通常会受到自身和外界的干扰,多个尺度的最大响应值不一定总是对应目标的最佳位置。相关响应图的主峰分散并出现多个峰值,此时最大响应值不一定是目标的最佳位置。因此当目标受到现实环境的干扰时,我们并不能因为某个尺度的响应值最大,就盲目地采用该值对应位置作为当前帧跟踪结果。
每个尺度的最大响应值都对应一个候选样本,并且我们能够根据多个候选样本的中心点围成一个凸多边形或凹多边形,当目标受到干扰时,其正确位置的中心点大多数位于该多边形顶点的质心上。该多边形的每个顶点都对应着一个尺度的最大响应值,每个顶点对应的最大响应值即该顶点的质量。值得说明的是,理想情况下或简单场景下相关滤波跟踪方法的相关响应图大多会呈现单尖峰状,其值对应位置更加逼近目标的真实位置,此时最大响应值对应的位置是较为可靠的跟踪结果,无需对该跟踪结果进行修正。
目标背景较为干净,相关响应图最大峰值较为尖锐,且与其他峰值差异较大,最大值对应位置更为接近目标真实位置。而最右侧偏离目标的尺度框将导致质心偏离目标,若此时采用多边形质心的位置校正方法对该跟踪结果进行修正,反而会使得修正后的跟踪结果与目标真实位置产生偏移。因此,只有在目标受到如背景混乱、遮挡、光照变化等复杂场景因素干扰且导致最大响应值对应位置偏离真实位置时,本文算法才采用多边形质心的位置校正方法对当前帧跟踪结果进行修正。
本文算法采用RMEI指标对最大响应值对应位置是否偏离真实位置进行判别。由于RMEI指标计算过程中对响应值进行了归一化处理,很容易发现该指标与跟踪结果的可靠性之间呈现出一定的关联。在简单场景下最大响应值对应位置较为可靠时,RMEI通常处于中间值区域本实验设置为区间[2.89,4];在复杂场景下最大响应值偏离真实位置时,RMEI通常较小或者较大。定量分析结果也表明,本文算法采用的RMEI判别指标和多边形质心修正方法在一定程度上促进了跟踪的成功率和精度。
仪器论文投稿刊物:《仪器仪表学报》是中国仪器仪表学会主办,代表中国仪器仪表及自动化最高学术水平的唯一国内外公开发行的学术性刊物。《仪器仪表学报》学术性强、内容创新、注重应用,优先刊登具有创新成就和观点的中英文论文、综述性文章、论坛及信息。
4结论
本文在时空正则化相关滤波跟踪算法基础上,提出了一种采用多边形质心的相关滤波跟踪位置校正方法。由于目标在受到各种复杂因素的干扰时,其最大响应值对应的位置并非总是逼近目标的真实位置,因此首先计算相关响应图评价指标以评价响应图的质量,进而判断当前帧跟踪结果是否可信;最后对不可信的跟踪结果,基于多边形顶点的质心对当前帧跟踪结果的位置和尺度进行校正。与近几年主流跟踪算法的对比实验表明,本文算法取得了较优的综合UC和精度,在实际复杂场景下尤其是背景混乱、遮挡、光照变化、旋转、纵横比变化等场景下具备了更好的鲁棒性和准确性。在未来工作中跟踪结果的可信判别和位置校正方法值得进一步研究。
参考文献:
[1]孟琭,杨旭.目标跟踪算法综述[J].自动化学报,2019,45(7):12441260.Algorithms[J].ACTAAUTOMATICASINICA,2019,45(7):12441260.
[2]OLMEDS,BEVERIDGEJR,DRAPERBA,etal.Visualobjecttrackingusingadaptivecorrelationfilters[C]//2010IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition.IEEE,2010:25442550.
[3]ANGM,LIUY,HUANGZ.Largemarginobjecttrackingwithcirculantfeaturemaps[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2017:40214029.
[4]HUZ,HUANGG,ZOUW,etal.Uct:Learningunifiedconvolutionalnetworksforrealtimevisualtracking[C]//ProceedingsoftheIEEEInternationalConferenceonComputerVisionWorkshops.2017:19731982.
[5]白中浩朱磊,李智强.多模型融合和重新检测的高精度鲁棒目标跟踪[J].仪器仪表学报,2019,v.40(09):135144.
作者:高赟*,徐子钦,王涛,周浩
转载请注明来源。原文地址:http://www.xuebaoqk.com/xblw/6592.html
《采用多边形质心的相关滤波跟踪位置校正方法》