首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

面向智能视频监控的高动态场景建模和修复

摘要第5-6页
ABSTRACT第6页
第一章 绪论第10-20页
    1.1 研究目的与意义第10-11页
        1.1.1 监控技术的市场和前景第10页
        1.1.2 场景建模面临的挑战第10-11页
    1.2 研究背景与现状第11-14页
    1.3 相关算法综述第14-17页
        1.3.1 高斯混合模型第14-15页
        1.3.2 ViBe算法第15-16页
        1.3.3 PBAS算法第16-17页
    1.4 本论文主要研究内容第17-19页
    1.5 本章小结第19-20页
第二章 基于压缩感知的背景建模第20-38页
    2.1 经典图像上下文特征及其局限性第20-23页
        2.1.2 经典图像上下文特征第20-21页
        2.1.3 Haar-like特征的局限性第21-23页
    2.2 基于图像上下文信息的压缩感知特征第23-28页
        2.2.1 背景模型特征降维第23-25页
        2.2.2 压缩感知特征第25-28页
    2.3 基于图像上下文信息的压缩感知特征提取方法第28-33页
        2.3.1 积分图的定义与生成方法第28-30页
        2.3.2 积分图提取矩形特征第30-31页
        2.3.3 基于压缩感知的广义Haar-like特征提取第31-33页
    2.4 基于图像上下文的无参数背景模型初始化第33-37页
        2.4.1 基于图像上下文信息的背景模型的优势第33-34页
        2.4.2 无参数建模的优势第34-35页
        2.4.3 模型初始化第35-37页
    2.5 本章小结第37-38页
第三章 基于像素-模型距离的背景更新第38-59页
    3.1 图像到类的距离(NBNN算法)第38-39页
    3.2 像素-模型(P2M)距离第39-41页
    3.3 前景的自适应分割第41-43页
        3.3.1 前景分割第41-42页
        3.3.2 自适应前景分割阈值第42-43页
    3.4 像素点背景模型更新第43-45页
    3.5 邻域像素点背景模型更新第45-49页
        3.5.1 最大P2M距离第45-46页
        3.5.2 邻域点模型更新第46-48页
        3.5.3 自适应模型更新参数第48-49页
    3.6 实验与分析第49-58页
        3.6.1 实验数据库第49-50页
        3.6.2 实验配置第50-51页
        3.6.3 实验结果与分析第51-58页
    3.7 本章小结第58-59页
第四章 高动态场景修复第59-74页
    4.1 常规场景修复方法第59-62页
        4.1.1 基于最近背景帧的场景修复第59-60页
        4.1.2 基于均值与中值的场景修复第60-62页
    4.2 基于背景恢复模型的场景修复第62-67页
        4.2.1 高斯混合建模修复场景第62-63页
        4.2.2 像素点线性表达第63-64页
        4.2.3 基于贝叶斯方法的最小P2M背景恢复模型第64-65页
        4.2.4 最小P2M距离修复场景第65-67页
    4.3 实验与分析第67-71页
        4.3.1 实验数据库第67页
        4.3.2 实验配置第67页
        4.3.3 实验结果与分析第67-71页
    4.4 基于场景建模与修复的交通监控系统第71-73页
    4.5 本章小结第73-74页
第五章 结论第74-76页
    5.1 本文的主要贡献第74-75页
    5.2 后续工作展望第75-76页
致谢第76-77页
参考文献第77-82页
攻读硕士学位期间取得的成果第82-83页

论文共83页,点击 下载论文
上一篇:盲声源分离技术应用研究
下一篇:OFDM系统信道估计的实现技术研究