音频噪声环境下唇动信息在语音识别中的应用技术研究
| 摘要 | 第1-7页 |
| Abstract | 第7-12页 |
| 插图索引 | 第12-14页 |
| 表格索引 | 第14-15页 |
| 主要缩写对照表 | 第15-17页 |
| 第一章 绪论 | 第17-28页 |
| ·课题研究意义 | 第17-19页 |
| ·音视频语音识别概述 | 第19-24页 |
| ·国内外研究现状 | 第20-21页 |
| ·视频图像处理 | 第21-23页 |
| ·音视频融合策略 | 第23-24页 |
| ·本文的主要工作及贡献 | 第24-26页 |
| ·论文章节安排 | 第26-28页 |
| 第二章 音视频语音数据库介绍 | 第28-36页 |
| ·音视频语音数据库概述 | 第28-30页 |
| ·研究中使用的音视频语音数据库 | 第30-35页 |
| ·AMP 英文双模语音数据库 | 第30-31页 |
| ·中文双模态连续语音数据库 | 第31-35页 |
| ·本章小结 | 第35-36页 |
| 第三章 嘴唇区域定位和轮廓提取方法 | 第36-54页 |
| ·基于多色彩空间的嘴唇区域定位算法 | 第36-41页 |
| ·基于彩色梯度嘴唇边缘提取方法 | 第37-38页 |
| ·基准线判准方法 | 第38-40页 |
| ·嘴唇区域投影定位 | 第40-41页 |
| ·基于改进GAC 模型的嘴形轮廓提取方法 | 第41-48页 |
| ·传统GAC 的嘴形轮廓提取模型 | 第42-44页 |
| ·GAC 模型在嘴形轮廓提取中的不足 | 第44-45页 |
| ·多方向梯度信息 | 第45页 |
| ·基于先验知识的水平集方法 | 第45-48页 |
| ·实验结果及分析 | 第48-53页 |
| ·嘴唇区域定位实验及分析 | 第48-49页 |
| ·嘴形轮廓提取实验及分析 | 第49-53页 |
| ·本章小结 | 第53-54页 |
| 第四章 嘴唇动态特征提取方法 | 第54-66页 |
| ·常用的视频图像特征 | 第54-60页 |
| ·特征唇(Eigenlips) | 第55-56页 |
| ·DTCWT 变换 | 第56-58页 |
| ·形状特征 | 第58-59页 |
| ·静态特征的唇读实验结果和分析 | 第59-60页 |
| ·基于帧间距离和LDA 的动态特征提取方法 | 第60-65页 |
| ·帧间距离 | 第62-63页 |
| ·线性判别分析 | 第63-64页 |
| ·动态特征的唇读实验结果与分析 | 第64-65页 |
| ·本章小结 | 第65-66页 |
| 第五章 基于多流HMM 的音视频信息融合方法 | 第66-93页 |
| ·音视频融合方法 | 第66-71页 |
| ·感知融合 | 第67-68页 |
| ·音视频融合级别 | 第68-70页 |
| ·基于双训练模型的特征融合策略 | 第70-71页 |
| ·基于MSHMM 的音视频决策融合模型 | 第71-76页 |
| ·多流隐马尔科夫模型 | 第71-74页 |
| ·基于N-best 的句子级音视频决策融合 | 第74-76页 |
| ·基于ILP 模型最优流指数选取的决策融合方法 | 第76-78页 |
| ·最大对数似然距离准则 | 第76页 |
| ·ILP 模型的建立 | 第76-77页 |
| ·阈值的确定 | 第77-78页 |
| ·实验结果及分析 | 第78-91页 |
| ·Sphinx3 简介 | 第78-79页 |
| ·实验设计 | 第79-82页 |
| ·AMP-AVSp 英语孤立词识别实验 | 第82-87页 |
| ·BiMoSp 中文连续语音识别实验 | 第87-90页 |
| ·结果分析 | 第90-91页 |
| ·本章小结 | 第91-93页 |
| 第六章 车载音视频语音控制仿真系统 | 第93-103页 |
| ·车载控制系统整体结构 | 第93-95页 |
| ·模拟系统的功能模块 | 第95-101页 |
| ·音频语音模块 | 第96-98页 |
| ·视频语音模块 | 第98-99页 |
| ·音视频融合模块 | 第99-101页 |
| ·在线音频语音控制系统的性能测试 | 第101-102页 |
| ·本章小结 | 第102-103页 |
| 结论 | 第103-107页 |
| 研究总结 | 第103-105页 |
| 后续工作展望 | 第105-107页 |
| 参考文献 | 第107-115页 |
| 攻读博士学位期间取得的研究成果 | 第115-117页 |
| 致谢 | 第117-119页 |
| 附录 | 第119页 |