首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

视频语义分析若干问题研究

摘要第5-7页
abstract第7-8页
第一章 绪论第19-31页
    1.1 研究背景与意义第19-20页
    1.2 主要任务第20-21页
    1.3 国内外研究现状第21-29页
        1.3.1 研究现状概述第21-24页
        1.3.2 主要问题与研究现状第24-29页
    1.4 论文组织结构第29-30页
    1.5 本章小结第30-31页
第二章 基于视频镜头分割和关键帧提取的视频表达研究第31-51页
    2.1 引言第31-32页
    2.2 相关研究第32-36页
        2.2.1 距离度量与相似度第33-35页
        2.2.2 卷积神经网络第35-36页
    2.3 基于CNN特征相似度的镜头分割算法第36-41页
        2.3.1 问题描述第36-37页
        2.3.2 特征提取第37-38页
        2.3.3 突变镜头检测第38页
        2.3.4 渐变镜头检测第38-41页
    2.4 基于完全图的视频关键帧提取算法第41-42页
        2.4.1 问题描述第41页
        2.4.2 算法设计第41-42页
    2.5 实验结果与分析第42-49页
        2.5.1 实验环境第42-43页
        2.5.2 数据来源与标注第43页
        2.5.3 评价指标第43-44页
        2.5.4 结果与分析第44-49页
    2.6 本章小结第49-51页
第三章 基于光流和双边空间的视频分割第51-67页
    3.1 引言第51-52页
    3.2 相关研究第52-56页
        3.2.1 有监督分割第52页
        3.2.2 半监督分割第52-53页
        3.2.3 无监督分割第53页
        3.2.4 光流第53-54页
        3.2.5 双边滤波第54-55页
        3.2.6 图割第55-56页
    3.3 研究问题与过程第56-65页
        3.3.1 问题描述第56页
        3.3.2 相邻帧运动对象估计第56-57页
        3.3.3 双边空间中的视频分割第57-60页
        3.3.4 实验结果与分析第60-65页
            3.3.4.1 实验设备第60页
            3.3.4.2 参数设置第60-61页
            3.3.4.3 处理时间第61页
            3.3.4.4 评价指标与实验结果第61-65页
    3.4 本章小结第65-67页
第四章 基于熵改进的HOG和SVM的夜间行人检测第67-86页
    4.1 相关研究第67-75页
        4.1.1 特征提取第67-72页
        4.1.2 行人检测分类器第72-75页
    4.2 研究问题与过程第75-80页
        4.2.1 提取ROIs第76-77页
        4.2.2 理论分析第77-78页
        4.2.3 分类框架第78-79页
        4.2.4 头部检测第79-80页
    4.3 实验结果与分析第80-84页
        4.3.1 实验设备第80页
        4.3.2 实验步骤第80-82页
        4.3.3 实验结果与分析第82-84页
            4.3.3.1 分类与识别比较第82-83页
            4.3.3.2 行人识别性能比较第83-84页
    4.4 本章小结第84-86页
第五章 基于运动向量和Two-StreamCNN的行为识别第86-99页
    5.1 相关研究第86-87页
    5.2 研究框架与内容第87-93页
        5.2.1 稀疏采样策略第87-88页
        5.2.2 增强运动向量第88-90页
        5.2.3 可区分表示模块第90-92页
        5.2.4 模型训练技巧第92-93页
            5.2.4.1 预训练模型第92页
            5.2.4.2 数据增强第92-93页
            5.2.4.3 小学习率与高dropout率第93页
    5.3 实验结果与分析第93-96页
        5.3.1 数据集第93-94页
            5.3.1.1 UCF第93页
            5.3.1.2 THUMOS第93-94页
        5.3.2 识别率与速度评估第94页
        5.3.3 训练和测试错误率第94-95页
        5.3.4 卷积过滤器可视化第95-96页
        5.3.5 召回率第96页
    5.4 本章小结第96-99页
第六章 基于多特征融合的视频语义自然语言描述第99-119页
    6.1 相关研究第99-104页
    6.2 研究问题与过程第104-116页
        6.2.1 问题描述第104-105页
        6.2.2 特征提取第105页
        6.2.3 特征融合第105-106页
        6.2.4 视频自然语言描述模型第106-107页
        6.2.5 实验与分析第107-116页
            6.2.5.1 实验环境第107-108页
            6.2.5.2 数据集第108页
            6.2.5.3 评价指标第108-109页
            6.2.5.4 实验步骤第109-110页
            6.2.5.5 实验结果与分析第110-116页
    6.3 通用视频自然语言描述框架第116-118页
        6.3.1 背景第116页
        6.3.2 框架描述第116-117页
        6.3.3 实验结果第117-118页
    6.4 本章小结第118-119页
第七章 结论与展望第119-122页
    7.1 全文结论第119-120页
    7.2 研究展望第120-122页
致谢第122-123页
参考文献第123-140页
攻读博士学位期间取得的成果第140页

论文共140页,点击 下载论文
上一篇:环境光遮蔽技术在图形图像中若干关键技术研究
下一篇:基于电磁时间反演的远场高分辨率成像技术研究