代写医学科研基金项目申请书
代写音乐体育艺术教学立项书
代写课题研究实施方案计划书
代写发原创职称论文毕业论文
课题开题报告科研立项申请书
代写企业项目申报立项申请书
代写科研课题结题成果报告书
代写科研技术可行性分析报告
科技成果转化项目可行性报告
国家自然科学基金申请书代写
国家社会科学基金申请书代写
提高医药卫生科研课题申报的中标率
科研立项申请经验交流
提升科研项目申报材料的撰写质量
·查新报告 ·结题报告
·医学论文 ·格式规范
·外科医学 ·中初教育
·经济金融 ·药学中医
·行政社会 ·农林食品
·理工基础 ·神经麻醉
·心脑血管 ·内科医学
·护理医教 ·文化文艺
·体育外语 ·机械材料
·法律军事 ·高教职教
·建筑电气 ·基础医学

名称:研友工作室
电话:0760-86388801
手机(微信):13380876598
邮箱:qsxkk@vip.163.com
地址:广东中山市孙文中路2号
网址: 1fv.1333sun.com
QQ:51643725
微信二维码:

案例范本
复杂动态场景下长期视觉目标跟踪算法研究
添加时间: 2020-6-18 12:19:20 来源: 作者: 点击数:

     

 项目类型: □ 重点项目   R 优秀青年项目     一般项目

 课题名称:复杂动态场景下长期视觉目标跟踪算法研究

1本课题国内外研究现状述评及研究意义。2.本课题研究的主要内容、基本思路、研究方法、重点难点、基本观点和创新之处。3.前期相关研究成果和主要参考文献。限7000字以内。

1本课题国内外研究现状述评及研究意义

1.1 研究背景与意义

近年来,随着智慧城市、平安社区等工程在全国各地的深入推进,公共以及家庭视频监控系统的数据正急剧增长。截至20165月,仅北京和上海两地的平安城市监控摄像头数量就达到240万只,每天的视频录制时长超过五千万小时。另据《安防行业十三五展望》报告预计我国视频监控数量还要以15%的年增长率继续增加。面对海量的监控视频,如何解放人力利用机器对其进行自动有效地分析是当前国家安居工程和智慧城市建设所亟待解决的关键问题。通常,基于机器视觉的视频自动分析系统包括三个主要部分:用于发现感兴趣对象的检测器;在后续视频序列中生成检测对象轨迹的跟踪器;以及用于身份识别、行为识别或系统控制的高层模块。其中目标跟踪是理解视频内容、分析并识别目标属性的关键。随着研究内容的不断深入,目标跟踪技术的应用范围也越来越广泛,相关研究成果在社会生产及生活中发挥着巨大的作用,如在武器装备的精确制导、智能视频监控、城市交通监管、人机交互、机器人和无人机导航、汽车自动或辅助驾驶、医疗诊断、体育竞技、遥感与水下目标跟踪、气象分析、视频检索、视频压缩编码、三维重构等众多方面均得到了广泛应用。

根据信号形式的不同,目标跟踪可分为雷达目标跟踪、声呐目标跟踪、红外目标跟踪以及视觉目标跟踪等。视觉目标跟踪[1-2](Visual Object TrackingVOT)是智能监控系统中的一个关键技术其对监控图像信息中运动物体进行自动检测,获取跟踪目标并提取目标特征,构建目标外观模型,进行跟踪器训练,最终对目标进行连续跟踪并进行模型更新,输出目标物体的相关参数信息,如位置、尺度和轨迹等。虽然视觉目标跟踪取得了长足进步,提出了大量算法,但是在复杂环境下对不同视觉目标进行精确、稳定、鲁棒的跟踪仍然还存在着大量的难题。在现实环境中,由于目标所处环境复杂多变,不可避免地会受到噪声、光照、遮挡、非刚体形变等因素的影响,从而降低跟踪精度及跟踪稳定性。从而使得在复杂环境中构建高效的视觉目标跟踪算法仍然还是个极大的挑战。因此,如何保证视觉目标跟踪算法在实际环境下的鲁棒性、准确性以及实时性,依然还是研究的热点。项目的深入研究除对依赖于视频目标跟踪的领域具有重要的应用价值之外,还对人脸识别、医学图像处理、遥感等其他领域具有重要的启发和借鉴意义。

1.2 国内外研究现状述评

国外在视觉目标跟踪方面的研究起步较早,并已实用化,如:美国马里兰大学成功研发出一种实时视觉目标跟踪系统,其能对复杂场景下行人进行跟踪与定位,实时分析公共场所下任务的行为特征;IBM技术研究院开发出Smart Surveillance System w4智能监控系统能对公共场所进行实时监控,自主分析异常行为,并对异常目标进行跟踪并报警,降低公共场所下的不安全因素,同时此系统已经被应用到北京奥运会;英国爱丁堡大学开发的BEHAVE(Conputed-assisted prescreening of video stream for unusual activities)项目利用视频处理技术对异常行为进行检测与跟踪;雷丁大学与法国INRIA等研究机构联合研制机场智能监控系统,对机场内的飞机、汽车和行人进行多角度实时监控,且能够实时向管理系统报告各种突发事件,对机场进行有效的视觉目标跟踪与分析,从而提高机场的安全系数。近年来美国与欧洲等国都相继开发智能监控系统,使得目标检测与视觉目标跟踪技术应用到实际工程中。

    国内对视觉目标跟踪系统的研究起步较晚,目前我国的总体研究水平是处于正赶超国外领先水平的阶段,许多科研单位和高校对视觉目标跟踪理论与技术进行深入的研究,如:大疆公司开发的Phantom无人机能依靠机器视觉对目标进行自动识别与跟踪,并且具有自主避障功能中科院自动化研究所模式识别国家重点实验室(National Laboratory of Pattern RecognitionNLPR)的生物识别与技术研究中心在目标跟踪领域中进行了大量的研究,并在人体运动的视觉分析、监控场景下行为分析和自主导航等方面取得了不错的研究成果;西安交通大学的图像处理与识别研究所、清华大学图形图像研究所等也对视觉目标跟踪技术进行了深入的研究,取得了卓有成效的结果;国内海康威视、大华等公司分别开发出具有自动跟踪与报警的视觉监控系统。

现阶段视觉目标跟踪技术的研究主要可以分为两类:基于生成式跟踪方法[3-5]的研究和基于判别式方法[6-8]的研究。生成式跟踪方法是在搜索图像中搜索与目标外观模型最佳相似的候选目标,以此作为跟踪目标,其需要构建复杂的目标外观模型,计算复杂度高,很难实现实时性跟踪要求;而判别式跟踪将目标跟踪问题看做是在线分类问题,其不需要构建复杂目标外观模型,计算复杂度低,受到越来越多的科研人员青睐。

近几年,视觉目标跟踪技术得到突飞猛进的发展,涌现出大量优秀的视觉目标跟踪算法。2012Kalal等提出一种跟踪学习检测的长期跟踪算法[9](Tracking-Learning-Detection, TLD),其将P-N学习的理念引入到目标跟踪中,利用级联分类器解决了跟踪失败情况下的目标重检测问题,显著提高了跟踪算法的鲁棒性,但是其跟踪精确度较低2015Henriques等提出高速核相关滤波算法[10](Kernelized Correlation Filters, KCF),其通过稠密采样的方法获取正负训练样本,提高了分类器的训练效果,并通过循环结构和快速傅里叶变换将时域内的计算转换到频域,显著降低了算法计算复杂度,但是其未能解决跟踪过程中的目标尺度变化问题2015Ma等提出长时相关跟踪算法[11](Long Correlation Tracking, LCT),其利用随机厥分类器构建目标重检测模块,解决了遮挡情况下的长时目标跟踪问题,并通过尺度池策略解决了目标尺度估计问题,但是其未能有效解决遮挡情况下的目标模板更新问题;2015Hong等提出MUSTer跟踪算法[12],其提出长时记忆和短时记忆的思想,在短时跟踪中利用聚合通道相关滤波储存目标信息,并进行实时目标跟踪,当目标跟踪失败时,启动长时跟踪模块,利用关键点匹配技术和RANSAC算法进行目标重检测,显著提高了算法的跟踪成功率,但是其算法计算复杂度较高,无法满足实时性要求;2016Bertinetto等提出互补学习跟踪算法[13](Staple: Complementary Learners Tracker, Staple),其引入直方图统计模型,通过加权融合的方式将相关滤波跟踪与直方图跟踪进行融合,解决了KCF算法在目标剧烈形变和运动模糊情况下的跟踪漂移问题(KCF算法因为利用的是HOG特征构建目标外观模型,而非统计特征,所以对目标剧烈形变较敏感),显著提高了算法的跟踪鲁棒性,但是其无法解决严重遮挡情况下的目标重定位问题;2017Jack等提出基于相关滤波网络跟踪算法[14](Correlation Filter Networks Tracker, CFnet),其将卷积神经网络的离线训练和相关滤波器的在线学习巧妙的结合起来,开启了深度学习跟踪的新思路,直接利用CNN进行相关操作,解决了相关滤波网络的端到端学习问题以及相关滤波网络的反向误差传播问题,获得了不错的跟踪效果,但是其对硬件要求较高,应用场景受限。

综上所述,现有的目标跟踪算法,有的鲁棒性强,有的实时性好,但是能将两者兼顾的算法少之又少,且在复杂环境下(例如遮挡、光照变化以及相似背景干扰等情况),此类目标跟踪算法的跟踪精度会大大降低。对目标模型过度依赖,缺乏对复杂环境的自适应性和通用性,是现有目标跟踪算法存在的主要问题。

2.本课题研究的主要内容、基本思路、研究方法、重点难点、基本观点和创新之处

  2.1 主要内容

(1) 项目拟利用多种特征构建目标外观模型,常见的特征有:光照不变特征[15](Illumination InInvariant Feature)、梯度方向直方图[16](Histogram of Gradient)特征增强局部方向模式[17](Enhanced local directional pattern, ELDP)特征和颜色命名特征[18](Color Names)同时,为了降低算法计算复杂度拟利用数据降维技术[19]简化特征数据的维数,分析不同特征对跟踪性能的贡献度,设计合理、有效的目标外观模型,即满足算法实时性要求,又解决剧烈光照变化和低分辨率图像下的跟踪漂移问题,提高跟踪精确度。

(2) 项目以相关滤波算法为基础,利用上下文感知[20](Context-Aware)理论对相关滤波跟踪器进行改进,将跟踪目标周围的背景信息引入相关滤波计算中,解决复杂背景下相似目标干扰问题,提高跟踪器的抗干扰能力。同时拟利用尺度池策略构建目标尺度金字塔,解决目标跟踪中存在的尺度估计问题,提高跟踪成功率。

  (3) 项目拟利用视觉显著性算法-图像签名算法[21](Image Signature Algorithm)设计一种新颖的目标重定位

(或检测)模块,解决严重遮挡或者出视野情况下的目标重定位问题。

(4) 项目拟利用峰旁比[22](Peak to Sidelobe Ratio)技术,对目标外观模型和分类器参数进行自适应更新,解决部分遮挡情况下的模板误更新问题,提高模板可靠性,降低或者消除跟踪漂移问题。

  2.2 基本思路

本项目围绕视觉目标跟踪技术面临的主要困难和存在的主要问题,以及当前主流跟踪算法亟待解决的技术难点,在目标特征的选择和提取、特征对目标模型描述能力的度量、多特征融合目标模型的构建、目标模型的自适应更新、跟踪算法光照变化、相似目标干扰、遮挡、低分辨率和尺度变化等复杂环境下的自适应方面进行深入分析和研究,在国内外同行工作的基础上提出一系列对复杂环境具有较强适应性的目标跟踪新方法,有效提高复杂环境下运动目标的跟踪精度和鲁棒性。  

  2.3 研究方法

(1) 文献研究法:针对传统的相关滤波跟踪算法中因为利用局部特征表征目标外观模型,其对目标形变与嘈杂背景下的干扰较为敏感,且无法解决遮挡情况下的目标模板更新问题和重定位问题等,检索和收集大量国内外理论与实践的相关资料,并进行整理、归纳和综合分析,了解和掌握相关研究领域中有关理论的最新进展、学术成果,建构本研究的理论基础

(2) 定量分析法为了验证所提算法鲁棒性,利用OTB公开数据集中的视频序列进行测试,主要测试算法的整体跟踪精确度、成功率和实时性,同时记录算法在不同测试序列上的距离精确度和重叠率精度以及跟踪误差曲线

(3) 定性分析法为了验证所提算法有效性,利用OTB公开数据集中的视频序列进行测试,主要测试算法在光照变化、遮挡、相似目标干扰、形变和尺度变化等复杂情况下性能表现。

(4) 对比分析法了更好分析所提算法性能的优劣性,利用OTB公开数据集测试所提算法与当前主流跟踪算法进行比较。

  2.4 重点难点

从视觉目标跟踪的相关文献可知,现有的方法主要是针对单一的场景问题提出对应的解决方法,以及相应方法的应用研究。然而,实际的应用场景非常复杂,目标在运动过程中常常会伴随多种复杂情形的出现,如剧烈的表观变化、形变、突然运动、严重遮挡和目标长时间处于视点外等。这些不同的复杂情形及其对应的场景变化,给视觉目标跟踪提出了更的要求。因此,视觉目标跟踪的性能有待于进一步深入的研究。本项目具体拟解决的重点难点问题如下所述

(1) 多特征/模型融合的跟踪方法的研究

为解决跟踪过程中的漂移问题,sb762.com:常规方法分别基于判别模型或生成模型提出对应的解决方法,而两种模型及其对应的方法有其各自的优势和不足之处。与此同时,不同的特征描述方式对不同场景下目标的表征效果也不尽相同。如何实现不同特征、模型的融合,对提高目标表征的有效性和跟踪性能具有积极的作用,值得深入研究。(2) 考虑上下文因素的影响

在目标的运动过程中,上下文信息提供了即时环境的视觉属性,可以为目标检测和跟踪提供辅助的信息,判别目标的状态。常规的目标跟踪方法主要是考虑目标内部持征信息,忽略了与目标密切相关的上下文信息。因而,如何通过提取目标的上下文信息,提高目标表征的准确性及目标跟踪的性能,是一个值得深入研究的课题。

(3) 人的视觉机制对跟踪性能的影响

已有的跟踪方法,多是利用机器学习的方式解决跟踪中的具体问题。相比较于机器学习方法,人的视觉机制则能够很好的识别各种复杂场景中的目标。如何在目标跟踪中借鉴人的视觉感知、模拟人的视觉机制,是一个值得深入研充的方向。

(4) 针对剧烈表现变化的目标跟踪研究

尽管现有的目标跟踪方法都采用有一定的适应策略,可以在一定程度上适应目标运动过程中的表观变化。但是,针对目标运动过程中的剧烈表观变化,己有的方法仍然存在不足,不能很好的解决表观变化的自适应性,在跟踪过程中易于发生漂移和模型的退化。因而,如何自适应目标剧烈的表观变化及开发出对应的跟踪方法将有待于进一步研究。

  2.5 基本观点

随着人工智能和计算机技术的发展,当前算法研究更加注重学科交叉与融合,更加注重人类认知学的研究。

在本项目的视觉跟踪算法部分,拟利用视觉显著性检测和上下文感知理论提升跟踪算法的可靠性和精确性,考虑了算法的先进性,又考虑了工程实践的可行性。

显著性检测[23](Visual Saliency Detection)定义为通过智能算法模拟人类的视觉注意力机制,提取图像中的显著性区域。视觉注意机制(Visual Attention MechanismVA)定义为,人类在面对一个场景时,能自动对感兴趣区域进行处理而选择性地忽略不感兴趣部分。在视觉跟踪中,跟踪目标相比背景一般更加显著,因此利用显著性检测理论可以提高算法鲁棒性。相关滤波算法的研究已经成为计算机领域中的一个研究热点,具有较好的研究基础且其模型简单、计算复杂度低,对设备硬件要求低。利用上下文感知理论可以显著提高跟踪器的跟踪鲁棒性和精确性。上面的阐述说明,本项目视觉跟踪算法部分研究方法是可行的,并且具有较高的算法前瞻性。  

  2.6 创新之处

 (1) 利用视觉显著性获取目标稀疏显著性图,解决严重遮挡或超出视野情况下的目标重定位问题,实现运动目标长期跟踪

   (2) 利用目标周围的上下文信息构造并训练上下文感知相关跟踪器,提高算法的跟踪鲁棒性和成功率

   (3) 利用直方图扰动模型自适应尺度估计策略解决相似目标干扰问题和尺度估计问题,构造更加稳健的目标外观模型

3.前期相关研究成果和主要参考文献

2. 项目团队

本项目有一支较好的研究队伍,项目组由学院“计算机应用技术”重点建设学科团队核心成员组成,项目组成员职称、年龄、学缘结构合理,专业学科互补,学术视野开阔,专业根底扎实,团队成员都具有硕士以上学历,都有主持或参与省部级以上项目的经验,执教经验丰富,具有扎实的基础理论和科研能力,近几年项目组成员累计主持或参与省部级项目5项、厅级项目6项、发表学术论文50余篇,其中SCIEI收录5篇、CSCD收录12篇,能为完成本项目研究提供技术保障。

二、主要参考文献

[1] 魏全禄, 老松杨, 白亮. 基于相关滤波器的视觉目标跟踪综述[J]. 计算机科学, 2016, 43(11):1-5+18.

[2] 曾巧玲, 文贡坚. 运动目标跟踪综述[J]. 重庆理工大学学报(自然科学), 2016, 30(07):103-111.

[3] Zhang T, Liu S, Ahuja N, et al. Robust visual tracking via consistent low-rank sparse learning[J]. International Journal of Computer Vision, 2015, 111(02): 171-190.

[4] Zhang T, Bibi A, Ghanem B. In defense of sparse tracking: circulant sparse tracker[C]. IEEE Conference on Computer Vision and Pattern Recognition. 2016: 3880-3888.

[5] 周治平, 周明珠, 李文慧. 基于混合粒子滤波和稀疏表示的目标跟踪算法[J]. 模式识别与人工智能, 2016, 29(01): 22-30.

[6] Ning J, Yang J, Jiang S, et al. Object tracking via dual linear structured SVM and explicit feature map[C]. IEEE Conference on Computer Vision and Pattern Recognition. 2016: 4266-4274.

[7] Zhang J, Ma S, Sclaroff S. MEEM: Robust tracking via multiple experts using entropy minimization[C]. European Conference on Computer Vision, 2014: 188-203.

[8] 王艳川, 黄海, 李邵梅, 王亚文. 基于双模型融合的自适应目标跟踪算法[J]. 计算机应用研究, 2017, 34(12): 3828-3833.

[9] Kalal Z, Mikolajczyk K, Matas J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(07): 1409-1422.

[10] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(03): 583-596.

[11] Ma C, Yang X, Zhang C, et al. Long-term correlation tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 5388-5396.

[12] Hong Z, Chen Z, Wang C, et al. MUlti-Store Tracker (MUSTer): a cognitive psychology inspired approach to object tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 749-758.

[13] Bertinetto L, Valmadre J, Golodetz S, et al. Staple: Complementary learners for real-time tracking[J]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 1401-1409.

[14]Valmadre J, Bertinetto L, Joao H, et al. End-to-End representation learning for correlation filter based tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2017: 5000-5008.

[15] Sheng-Feng He, Qing-Xiong Yang, et al. Visual tracking via locality sensitive histograms [C]. IEEE Conference on

Computer Vision and Pattern Recognition, 2013: 2427-2434

[16] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]. IEEE Conference on Computer Vision and Pattern Recognition,2005, 1: 886-893.

[17] Zhong F, Zhang J. Face recognition with enhanced local directional patterns[J]. Neurocomputing, 2013, 119(16): 375-384.

[18]  Weijer J V D, Schmid C, Verbeek J, et al. Learning color names for real-world applications[J]. IEEE Transactions on Image Processing, 2009, 18(07): 1512-1523.

[19] Wold S, Esbensen K, Geladi P. Principal component analysis[J]. Chemometrics & Intelligent Laboratory Systems, 1987, 2(1-3):37-52.

[20] Mueller M, Smith N, Ghanem B. Context-Aware Correlation Filter Tracking[C].  IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1-9.

[21] Hou X, Harel J, Koch C. Image Signature: Highlighting Sparse Salient Regions[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2012, 34(01):194.

[22] Bolme D S, Beveridge J R, Draper B A, et al. Visual object tracking using adaptive correlation filters [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2010: 2544-2550.

[23] 王军, 何子清, 柳红岩, 王喜军. 基于最简视觉显著性的红外目标快速提取方法[J]. 激光与红外, 2016,

46(07): 880-884.

注: 1.活页文字表述中不得直接或间接透露个人信息或相关背景资料,否则取消参评资格。

2.前期相关研究成果只能填写成果名称、成果形式(如专利、论文、专著、调查报告、研究报告等)、成果数量,不得填写成果作者、单位、刊物或出版社名称、发表或出版时间等信息。与本课题研究无关的成果以及主持或参加的各类项目等不能填写。课题负责人和参加者的成果要分开填写。课题负责人的前期研究成果不列入参考文献。

3. 课题论证用最适合的字号和行间距排版,字数控制在7000字内版面控制在5-8页。

     4.选择项目类型请在方框内”,项目编号由我厅填写。

关于研友  |  诚聘英才  |  联系我们  |  友情链接
版权所有:@2007-2009 智尚代写联盟-中山研友 电话:0760-86388801 QQ:741287446
地址:广东中山市学院路1号 邮编:528402 皖ICP备10002124号
  • 磷酸西格列汀联合阿卡波糖治疗2型糖尿
  • 立项可行性
  • 医学论文投稿邮箱
  • 医学学报医科大学
  • 滋润烧伤膏抑菌性的相关研究
  • 诊疗规范化研究临床观察表
  • 研究生导师通讯录电话
  • 全国政府采购办公室电话负责人通讯录
  • 政府企事业单位相关负责人地址通讯录
  • 四川省政府采购部门通讯录
  • 医学期刊电子版
  • 苏州市哲学社会科学研究课题立项协议书
  • 有效教学实施计划
  • 浙江省社会主义学院立项协议书
  • 广东省医学科学技术研究基金管理办法
  • 117tyc.com
  • 中成药农药残留检测研究现状
  • 申博游戏电脑怎么下载登入
  • 肾内科科研项目课题
  • xpj2.com 279msc.com 沙龙娱乐注册送18 117tyc.com 117tyc.com
    968sb.com 67kcd.com kcd52.com sun259.com 553tyc.com
    262tyc.com 60xpj.com 71rfd.com msc695.com msc823.com
    尊亿娱乐在线 最高返水 865sun.com 菲律宾申博官网怎么登入 972msc.com 869tyc.com