基于视频的目标在线跟踪方法研究

目标跟踪论文 外观模型论文 增量子空间学习论文 LK光流论文
论文详情
基于视频图像的目标跟踪是计算机视觉的核心问题,相关研究在人机交互、智能视频监控、智能交通等领域有广泛应用前景。跟踪算法的核心部分是目标外观建模,由于目标在运动过程中形态往往不可预知,使得跟踪算法研究中具有在线学习能力的外观建模成为热点。近年来,尽管相关研究取得了众多进展,但在实际应用中对任意目标实现可靠跟踪仍是难点,主要受到目标形变的复杂程度、场景中相似干扰、无法判断跟踪可靠性等问题影响。目前,研究者们从目标外观模型的特征设计、目标表示、模型更新方法以及整体跟踪框架中多种信息的融合等方面开展深入研究,试图解决上述跟踪难题。本文属于这一类研究。本文主要做了两方面的工作:1)以场景中相似干扰多导致跟踪困难的自然交互“设备”手部为研究对象,从考虑目标特点的外观建模,背景信息、目标运动信息的综合运用等角度,研究了复杂场景中鲁棒的手势跟踪方法;2)以特征信息丰富但因形变复杂造成跟踪困难的目标为研究对象,模拟人眼初级视皮层腹侧通路的形状感知机制,研究了鲁棒的目标外观建模方法。主要研究内容包括:1.对近年来文献中出现的目标在线跟踪方法进行了比较研究。将六种具有代表性的目标跟踪方法进行了实现,选择涵盖目标形变复杂、光照变化剧烈、存在相似干扰、遮挡严重等特点的测试视频,从定性的跟踪效果与定量的实验数据进行算法的对比分析。在此基础上,总结出了现有方法对本文研究对象进行跟踪时存在的不足,并指出了可能解决问题的研究方向。2.以手部为研究对象,提出了多信息融合的增量子空间手势跟踪方法:1)结合手部的肤色聚类特点,将增量子空间学习算法扩展应用到彩色图像,提出了融合亮度信息与颜色信息的彩色增强型增量子空间目标外观建模方法;2)建立在线更新的背景模型与目标运动轨迹分析模型,提出了两种目标跟踪丢失判断方法。实验结果验证了算法的有效性。3.为提高跟踪模型的抗相似干扰能力,对基于增量子空间学习的跟踪方法从目标不同类型特征的互补运用、结合目标运动趋势检测两个角度进行了改进:1)将目标整体特征与局部特征进行互补建模,提出结合在线蕨丛分类器的增量子空间跟踪方法,用蕨丛分类器对增量子空间方法得到的跟踪结果进行二次筛选,提高跟踪方法的鲁棒性;2)提出融合LK光流运动检测的增量子空间跟踪方法,该方法基于LK算法检测出的可靠光流点数量与分布,约束粒子滤波的运动模型。实验结果表明改进方法在抗相似干扰方面性能有较大提升,而且能提高增量子空间算法的计算效率。4.以特征信息丰富但因形变复杂造成跟踪困难的目标为研究对象,模拟人眼视皮层腹侧通路感知机制,引入具有位置尺度不变性、复杂形状选择特性的C2特征,建立一个基于认知碎片集进行目标外观建模的在线目标跟踪模型。仿真结果验证了本文算法在应对目标复杂形变和严重遮挡时的鲁棒性与有效性。另外,针对上述模型在跟踪具有对称特性的目标时,C2特征全局位置不变性的特点容易造成跟踪发生偏移的问题,从特征类型互补的角度提出了联合整体感知的目标模型,对具有对称特性的人脸目标取得了较好的实验效果。本文工作有助于推进手部作为关键“设备”进行自然人机交互的实用化进程,以及生物视觉感知理论在目标跟踪中的应用研究。
摘要第5-7页
Abstract第7-8页
第一章 绪论第12-21页
    1.1 应用背景与研究意义第12-14页
    1.2 目标在线跟踪方法的国内外研究现状第14-19页
        1.2.1 基于单分类思想构造的在线跟踪模型研究进展第14-17页
        1.2.2 基于二分类思想构造的在线跟踪模型研究进展第17-19页
    1.3 本文的主要研究内容与章节安排第19-21页
第二章 代表性跟踪方法的性能分析第21-42页
    2.1 引言第21页
    2.2 代表性跟踪方法的核心思想第21-31页
        2.2.1 基于增量子空间学习的IVT方法第21-23页
        2.2.2 基于增量张量子空间学习的目标跟踪方法第23-25页
        2.2.3 基于在线Boosting的目标跟踪方法第25-27页
        2.2.4 基于相关滤波器的目标跟踪方法第27-28页
        2.2.5 基于增量非负矩阵分解的目标跟踪方法第28-29页
        2.2.6 TLD目标跟踪方法第29-31页
    2.3 算法性能测试第31-40页
        2.3.1 视频跟踪效果对比第32-39页
        2.3.2 跟踪方法性能的定量分析第39-40页
    2.4 本章小结第40-42页
第三章 多信息融合的增量子空间手势跟踪方法第42-59页
    3.1 引言第42页
    3.2 算法整体框架第42-43页
    3.3 基于改进HOG特征的手势检测方法第43-44页
    3.4 基于彩色增强型增量子空间的手势跟踪方法第44-54页
        3.4.1 基于彩色增强型增量子空间的目标外观建模第45-46页
        3.4.2 基于粒子滤波的运动状态预测第46-48页
        3.4.3 实验结果及分析第48-54页
    3.5 手势目标跟踪丢失判断方法研究第54-58页
        3.5.1 背景模型在目标跟踪中的运用第54-56页
        3.5.2 基于运动轨迹分析的目标跟踪丢失判断方法第56-58页
    3.6 本章小结第58-59页
第四章 基于增量子空间学习的目标跟踪算法抗干扰研究第59-77页
    4.1 引言第59页
    4.2 结合在线蕨丛分类器的增量子空间跟踪方法第59-63页
        4.2.1 算法框架第59-60页
        4.2.2 在线蕨丛分类器的构造第60-61页
        4.2.3 基于P-N思想的在线分类器更新第61-62页
        4.2.4 实验结果及分析第62-63页
    4.3 融合光流运动检测的增量子空间跟踪方法第63-76页
        4.3.1 跟踪方法整体框架第63-65页
        4.3.2 金字塔LK光流估计算法第65-70页
        4.3.3 基于光流点可靠性评价的粒子筛选方法第70-73页
        4.3.4 实验结果分析第73-76页
    4.4 本章小结第76-77页
第五章 基于生物启发特征的目标在线跟踪方法第77-95页
    5.1 引言第77页
    5.2 生物启发特征第77-82页
        5.2.1 生物视觉感知系统第78-80页
        5.2.2 初级视皮层简单细胞反应的数学模拟第80页
        5.2.3 前馈生物启发C2特征模型第80-82页
    5.3 基于C2特征的目标在线跟踪模型第82-90页
        5.3.1 模型整体框架第83-84页
        5.3.2 认知碎片的重要性评估第84页
        5.3.3 目标/背景分类器的构造第84-85页
        5.3.4 认知碎片瞬时记忆池的更新第85-86页
        5.3.5 实验结果及分析第86-90页
    5.4 联合整体感知的生物启发特征跟踪方法改进第90-93页
        5.4.1 联合整体感知的目标跟踪模型第90-92页
        5.4.2 实验结果及分析第92-93页
    5.5 本章小结第93-95页
结论与展望第95-99页
    一、论文工作总结第95-96页
    二、未来工作展望第96-99页
参考文献第99-111页
攻读博士学位期间取得的研究成果第111-112页
致谢第112-113页
附件第113页
论文购买
论文编号ABS4029076,这篇论文共113页
会员购买按0.30元/页下载,共需支付33.9
不是会员,注册会员
会员更优惠充值送钱
直接购买按0.5元/页下载,共需要支付56.5
只需这篇论文,无需注册!
直接网上支付,方便快捷!
相关论文

点击收藏 | 在线购卡 | 站内搜索 | 网站地图
版权所有 艾博士论文 Copyright(C) All Rights Reserved
版权申明:本文摘要目录由会员***投稿,艾博士论文编辑,如作者需要删除论文目录请通过QQ告知我们,承诺24小时内删除。
联系方式: QQ:277865656