| 摘要 | 第1-5页 |
| Abstract | 第5-9页 |
| 第1章 绪论 | 第9-11页 |
| ·课题来源 | 第9页 |
| ·本课题研究的目的及意义 | 第9页 |
| ·国内外研究现状 | 第9-10页 |
| ·本文主要研究内容 | 第10-11页 |
| 第2章 基于字幕和剧本的说话者人名获取 | 第11-15页 |
| ·字幕和剧本信息融合算法 | 第11-13页 |
| ·字幕和剧本信息的融合 | 第13-14页 |
| ·算法实现及实验 | 第13-14页 |
| ·实验结果分析 | 第14页 |
| ·本章小结 | 第14-15页 |
| 第3章 AdaBoost和肤色模型相结合获取人脸序列 | 第15-29页 |
| ·人脸检测及跟踪常用方法 | 第15-21页 |
| ·人脸检测常用算法 | 第15-18页 |
| ·AdaBoost人脸检测算法 | 第18-19页 |
| ·人脸跟踪的常用算法 | 第19-20页 |
| ·MeanShift人脸跟踪方法 | 第20-21页 |
| ·肤色空间及肤色模型 | 第21-24页 |
| ·肤色空间及其选取 | 第21-22页 |
| ·肤色模型 | 第22-24页 |
| ·人脸序列的获取 | 第24-28页 |
| ·字幕和帧间差相结合进行镜头分割 | 第24-26页 |
| ·AdaBoost和肤色模型相结合获取人脸序列 | 第26-28页 |
| ·人脸序列提取结果 | 第28页 |
| ·本章小结 | 第28-29页 |
| 第4章 说话者检测 | 第29-38页 |
| ·嘴唇区域提取及唇动检测常用方法 | 第29-31页 |
| ·常用嘴唇区域提取方法 | 第29-30页 |
| ·判断唇动的常用方法 | 第30-31页 |
| ·几何特征和唇色模型相结合提取嘴部区域 | 第31-33页 |
| ·本文采用的唇色判别式 | 第31页 |
| ·改进后的唇部区域提取方法 | 第31-33页 |
| ·基于机器学习的唇动检测 | 第33-36页 |
| ·机器学习思想的引入及特征选取 | 第33-34页 |
| ·常用的机器学习算法 | 第34-36页 |
| ·引入唇动频率进行说话者检测 | 第36-37页 |
| ·本章小结 | 第37-38页 |
| 第5章 唇动检测与说话者标注实验结果 | 第38-48页 |
| ·实验流程图 | 第38-39页 |
| ·唇动检测实验结果 | 第39-43页 |
| ·测试数据获取 | 第39页 |
| ·评价方法 | 第39页 |
| ·帧间差阈值法的唇动检测结果 | 第39-40页 |
| ·机器学习方法的唇动检测结果 | 第40页 |
| ·机器学习方法与帧间差方法比较分析 | 第40-43页 |
| ·说话者标注实验结果 | 第43-47页 |
| ·评价方法 | 第43-44页 |
| ·说话者标注介绍 | 第44页 |
| ·帧间差与机器学习两种方法标注比较 | 第44-47页 |
| ·本章小结 | 第47-48页 |
| 结论 | 第48-49页 |
| 参考文献 | 第49-54页 |
| 致谢 | 第54页 |