摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
目录 | 第9-12页 |
插图索引 | 第12-14页 |
表格索引 | 第14-15页 |
缩略语表 | 第15-16页 |
第一章 绪论 | 第16-22页 |
1.1 本文研究目的及意义 | 第16页 |
1.2 国内外研究现状 | 第16-19页 |
1.2.1 人体动作识别的研究现状 | 第16-19页 |
1.2.2 物体显著性检测的研究现状 | 第19页 |
1.3 本文的主要研究内容和创新成果 | 第19-22页 |
1.3.1 主要研究内容 | 第19-20页 |
1.3.2 创新成果 | 第20-22页 |
第二章 多示例学习及其优化 | 第22-31页 |
2.1 引言 | 第22页 |
2.2 多示例学习问题定义 | 第22-24页 |
2.3 基于支持向量机的多示例学习问题的优化 | 第24-30页 |
2.3.1 支持向量机 | 第24-26页 |
2.3.2 基于最大化示例间隔的多示例学习优化 | 第26-28页 |
2.3.3 基于最大化包间隔的多示例学习优化 | 第28-30页 |
2.4 本章小结 | 第30-31页 |
第三章 基于关键子段挖掘的人体动作识别方法 | 第31-51页 |
3.1 引言 | 第31页 |
3.2 基于人体骨架关节点的特征表示 | 第31-36页 |
3.2.1 单帧图像的特征表示 | 第32-35页 |
3.2.2 视频子段的特征表示 | 第35-36页 |
3.3 基于关键子段挖掘的人体动作识别方法 | 第36-42页 |
3.3.1 固定长度关键子段挖掘 | 第36-38页 |
3.3.2 动态长度关键子段挖掘 | 第38-42页 |
3.4 实验结果与分析 | 第42-49页 |
3.4.1 人体动作视频数据集 | 第42-43页 |
3.4.2 实验参数设置 | 第43-44页 |
3.4.3 MSR Action3D 数据集上实验结果与分析 | 第44-48页 |
3.4.4 UCF-Kinect 数据集上实验结果与分析 | 第48-49页 |
3.5 本章小结 | 第49-51页 |
第四章 基于多示例学习的混合监督物体显著性检测 | 第51-70页 |
4.1 引言 | 第51页 |
4.2 基于特征编码图像分类框架的显著性计算模型 | 第51-54页 |
4.3 基于多示例学习的混合监督物体显著性检测 | 第54-65页 |
4.3.1 基于多示例学习的弱监督物体显著性检测 | 第54-62页 |
4.3.2 基于多示例学习的混合监督物体显著性检测 | 第62-65页 |
4.4 实验结果与分析 | 第65-67页 |
4.4.1 实验数据集 | 第65页 |
4.4.2 实验参数设置 | 第65-66页 |
4.4.3 实验结果 | 第66-67页 |
4.5 本章小结 | 第67-70页 |
第五章 总结与展望 | 第70-72页 |
5.1 全文工作总结 | 第70-71页 |
5.2 未来工作展望 | 第71-72页 |
参考文献 | 第72-79页 |
致谢 | 第79-80页 |
攻读学位期间完成的学术论文和研究工作 | 第80-81页 |
附件 | 第81页 |