摘要 | 第5-7页 |
abstract | 第7-8页 |
第一章 绪论 | 第19-31页 |
1.1 研究背景与意义 | 第19-20页 |
1.2 主要任务 | 第20-21页 |
1.3 国内外研究现状 | 第21-29页 |
1.3.1 研究现状概述 | 第21-24页 |
1.3.2 主要问题与研究现状 | 第24-29页 |
1.4 论文组织结构 | 第29-30页 |
1.5 本章小结 | 第30-31页 |
第二章 基于视频镜头分割和关键帧提取的视频表达研究 | 第31-51页 |
2.1 引言 | 第31-32页 |
2.2 相关研究 | 第32-36页 |
2.2.1 距离度量与相似度 | 第33-35页 |
2.2.2 卷积神经网络 | 第35-36页 |
2.3 基于CNN特征相似度的镜头分割算法 | 第36-41页 |
2.3.1 问题描述 | 第36-37页 |
2.3.2 特征提取 | 第37-38页 |
2.3.3 突变镜头检测 | 第38页 |
2.3.4 渐变镜头检测 | 第38-41页 |
2.4 基于完全图的视频关键帧提取算法 | 第41-42页 |
2.4.1 问题描述 | 第41页 |
2.4.2 算法设计 | 第41-42页 |
2.5 实验结果与分析 | 第42-49页 |
2.5.1 实验环境 | 第42-43页 |
2.5.2 数据来源与标注 | 第43页 |
2.5.3 评价指标 | 第43-44页 |
2.5.4 结果与分析 | 第44-49页 |
2.6 本章小结 | 第49-51页 |
第三章 基于光流和双边空间的视频分割 | 第51-67页 |
3.1 引言 | 第51-52页 |
3.2 相关研究 | 第52-56页 |
3.2.1 有监督分割 | 第52页 |
3.2.2 半监督分割 | 第52-53页 |
3.2.3 无监督分割 | 第53页 |
3.2.4 光流 | 第53-54页 |
3.2.5 双边滤波 | 第54-55页 |
3.2.6 图割 | 第55-56页 |
3.3 研究问题与过程 | 第56-65页 |
3.3.1 问题描述 | 第56页 |
3.3.2 相邻帧运动对象估计 | 第56-57页 |
3.3.3 双边空间中的视频分割 | 第57-60页 |
3.3.4 实验结果与分析 | 第60-65页 |
3.3.4.1 实验设备 | 第60页 |
3.3.4.2 参数设置 | 第60-61页 |
3.3.4.3 处理时间 | 第61页 |
3.3.4.4 评价指标与实验结果 | 第61-65页 |
3.4 本章小结 | 第65-67页 |
第四章 基于熵改进的HOG和SVM的夜间行人检测 | 第67-86页 |
4.1 相关研究 | 第67-75页 |
4.1.1 特征提取 | 第67-72页 |
4.1.2 行人检测分类器 | 第72-75页 |
4.2 研究问题与过程 | 第75-80页 |
4.2.1 提取ROIs | 第76-77页 |
4.2.2 理论分析 | 第77-78页 |
4.2.3 分类框架 | 第78-79页 |
4.2.4 头部检测 | 第79-80页 |
4.3 实验结果与分析 | 第80-84页 |
4.3.1 实验设备 | 第80页 |
4.3.2 实验步骤 | 第80-82页 |
4.3.3 实验结果与分析 | 第82-84页 |
4.3.3.1 分类与识别比较 | 第82-83页 |
4.3.3.2 行人识别性能比较 | 第83-84页 |
4.4 本章小结 | 第84-86页 |
第五章 基于运动向量和Two-StreamCNN的行为识别 | 第86-99页 |
5.1 相关研究 | 第86-87页 |
5.2 研究框架与内容 | 第87-93页 |
5.2.1 稀疏采样策略 | 第87-88页 |
5.2.2 增强运动向量 | 第88-90页 |
5.2.3 可区分表示模块 | 第90-92页 |
5.2.4 模型训练技巧 | 第92-93页 |
5.2.4.1 预训练模型 | 第92页 |
5.2.4.2 数据增强 | 第92-93页 |
5.2.4.3 小学习率与高dropout率 | 第93页 |
5.3 实验结果与分析 | 第93-96页 |
5.3.1 数据集 | 第93-94页 |
5.3.1.1 UCF | 第93页 |
5.3.1.2 THUMOS | 第93-94页 |
5.3.2 识别率与速度评估 | 第94页 |
5.3.3 训练和测试错误率 | 第94-95页 |
5.3.4 卷积过滤器可视化 | 第95-96页 |
5.3.5 召回率 | 第96页 |
5.4 本章小结 | 第96-99页 |
第六章 基于多特征融合的视频语义自然语言描述 | 第99-119页 |
6.1 相关研究 | 第99-104页 |
6.2 研究问题与过程 | 第104-116页 |
6.2.1 问题描述 | 第104-105页 |
6.2.2 特征提取 | 第105页 |
6.2.3 特征融合 | 第105-106页 |
6.2.4 视频自然语言描述模型 | 第106-107页 |
6.2.5 实验与分析 | 第107-116页 |
6.2.5.1 实验环境 | 第107-108页 |
6.2.5.2 数据集 | 第108页 |
6.2.5.3 评价指标 | 第108-109页 |
6.2.5.4 实验步骤 | 第109-110页 |
6.2.5.5 实验结果与分析 | 第110-116页 |
6.3 通用视频自然语言描述框架 | 第116-118页 |
6.3.1 背景 | 第116页 |
6.3.2 框架描述 | 第116-117页 |
6.3.3 实验结果 | 第117-118页 |
6.4 本章小结 | 第118-119页 |
第七章 结论与展望 | 第119-122页 |
7.1 全文结论 | 第119-120页 |
7.2 研究展望 | 第120-122页 |
致谢 | 第122-123页 |
参考文献 | 第123-140页 |
攻读博士学位期间取得的成果 | 第140页 |