多视角的唇动身份识别研究
摘要 | 第1-5页 |
Abstract | 第5-8页 |
第1章 绪论 | 第8-19页 |
·课题研究的背景和意义 | 第8-12页 |
·课题来源 | 第8页 |
·课题背景 | 第8-11页 |
·课题研究目的和意义 | 第11-12页 |
·多视角唇动身份识别技术综述 | 第12-17页 |
·唇动身份识别技术的基本问题 | 第12-15页 |
·本课题国内外研究情况概述 | 第15-17页 |
·本文的主要研究内容 | 第17-19页 |
第2章 多视角唇动身份识别数据库构建 | 第19-26页 |
·已有的唇读说话人识别数据库 | 第19-20页 |
·唇动身份识别数据库的建立 | 第20-24页 |
·关键词的选择和采集方法 | 第20-22页 |
·语料库的采集 | 第22-24页 |
·语料库实验规则 | 第24-25页 |
·本章小结 | 第25-26页 |
第3章 多视角的唇区轮廓获取和视频同步 | 第26-38页 |
·多视角的唇区特点 | 第26页 |
·多视角的唇区检测和轮廓提取 | 第26-33页 |
·基于颜色空间变换处理 | 第27-29页 |
·基于水平集的方法轮廓提取方法 | 第29-33页 |
·多视角的唇动视频同步 | 第33-37页 |
·本章小结 | 第37-38页 |
第4章 基于表观特征的说话人识别方法 | 第38-45页 |
·DCT 特征提取技术 | 第38-39页 |
·DCT 基本原理 | 第38-39页 |
·DCT 特征提取实现 | 第39页 |
·HMM 模型 | 第39-41页 |
·建模原理和依据 | 第39-40页 |
·建模的技术要点和实现 | 第40-41页 |
·建模技术的应用 | 第41页 |
·实验和结果 | 第41-44页 |
·实验流程 | 第41-42页 |
·测试流程 | 第42页 |
·结果和结果分析 | 第42-44页 |
·本章小结 | 第44-45页 |
第5章 基于唇动轨迹特征的识别方法 | 第45-52页 |
·多视角的唇动轮廓特征提取 | 第45-48页 |
·多视角轮廓提取方法实现 | 第45-46页 |
·运动轮廓曲线后处理 | 第46-47页 |
·运动曲线速度和加速度求取 | 第47-48页 |
·曲线相关度计算模型 | 第48-50页 |
·曲线相关度模型原理 | 第48-49页 |
·基于嘴唇运动曲线的识别研究 | 第49-50页 |
·实验和结果 | 第50-51页 |
·本章小结 | 第51-52页 |
第6章 基于时空体直方图特征的识别方法 | 第52-58页 |
·多视角特征不变量 | 第52-53页 |
·基于时空体的特征提取 | 第53-55页 |
·基于直方图的唇动特征提取方法 | 第54页 |
·基于直方图的特征提取方法具体实现 | 第54-55页 |
·实验和结果 | 第55-57页 |
·本章小结 | 第57-58页 |
结论 | 第58-59页 |
参考文献 | 第59-63页 |
附录识别平台界面 | 第63-64页 |
攻读学位期间发表的学术论文 | 第64-66页 |
致谢 | 第66页 |