多视角的唇动身份识别研究
| 摘要 | 第1-5页 |
| Abstract | 第5-8页 |
| 第1章 绪论 | 第8-19页 |
| ·课题研究的背景和意义 | 第8-12页 |
| ·课题来源 | 第8页 |
| ·课题背景 | 第8-11页 |
| ·课题研究目的和意义 | 第11-12页 |
| ·多视角唇动身份识别技术综述 | 第12-17页 |
| ·唇动身份识别技术的基本问题 | 第12-15页 |
| ·本课题国内外研究情况概述 | 第15-17页 |
| ·本文的主要研究内容 | 第17-19页 |
| 第2章 多视角唇动身份识别数据库构建 | 第19-26页 |
| ·已有的唇读说话人识别数据库 | 第19-20页 |
| ·唇动身份识别数据库的建立 | 第20-24页 |
| ·关键词的选择和采集方法 | 第20-22页 |
| ·语料库的采集 | 第22-24页 |
| ·语料库实验规则 | 第24-25页 |
| ·本章小结 | 第25-26页 |
| 第3章 多视角的唇区轮廓获取和视频同步 | 第26-38页 |
| ·多视角的唇区特点 | 第26页 |
| ·多视角的唇区检测和轮廓提取 | 第26-33页 |
| ·基于颜色空间变换处理 | 第27-29页 |
| ·基于水平集的方法轮廓提取方法 | 第29-33页 |
| ·多视角的唇动视频同步 | 第33-37页 |
| ·本章小结 | 第37-38页 |
| 第4章 基于表观特征的说话人识别方法 | 第38-45页 |
| ·DCT 特征提取技术 | 第38-39页 |
| ·DCT 基本原理 | 第38-39页 |
| ·DCT 特征提取实现 | 第39页 |
| ·HMM 模型 | 第39-41页 |
| ·建模原理和依据 | 第39-40页 |
| ·建模的技术要点和实现 | 第40-41页 |
| ·建模技术的应用 | 第41页 |
| ·实验和结果 | 第41-44页 |
| ·实验流程 | 第41-42页 |
| ·测试流程 | 第42页 |
| ·结果和结果分析 | 第42-44页 |
| ·本章小结 | 第44-45页 |
| 第5章 基于唇动轨迹特征的识别方法 | 第45-52页 |
| ·多视角的唇动轮廓特征提取 | 第45-48页 |
| ·多视角轮廓提取方法实现 | 第45-46页 |
| ·运动轮廓曲线后处理 | 第46-47页 |
| ·运动曲线速度和加速度求取 | 第47-48页 |
| ·曲线相关度计算模型 | 第48-50页 |
| ·曲线相关度模型原理 | 第48-49页 |
| ·基于嘴唇运动曲线的识别研究 | 第49-50页 |
| ·实验和结果 | 第50-51页 |
| ·本章小结 | 第51-52页 |
| 第6章 基于时空体直方图特征的识别方法 | 第52-58页 |
| ·多视角特征不变量 | 第52-53页 |
| ·基于时空体的特征提取 | 第53-55页 |
| ·基于直方图的唇动特征提取方法 | 第54页 |
| ·基于直方图的特征提取方法具体实现 | 第54-55页 |
| ·实验和结果 | 第55-57页 |
| ·本章小结 | 第57-58页 |
| 结论 | 第58-59页 |
| 参考文献 | 第59-63页 |
| 附录识别平台界面 | 第63-64页 |
| 攻读学位期间发表的学术论文 | 第64-66页 |
| 致谢 | 第66页 |