情感说话人识别的人机性能对比研究
摘要 | 第3-4页 |
Abstract | 第4页 |
第1章 绪论 | 第11-17页 |
1.1 研究背景 | 第11-13页 |
1.2 说话人识别技术发展 | 第13页 |
1.3 影响系统性能的因素 | 第13-15页 |
1.4 情感说话人识别 | 第15页 |
1.5 人机系统对比 | 第15-16页 |
1.6 本文内容安排 | 第16-17页 |
第2章 发音声学模型与听觉识别 | 第17-32页 |
2.1 发音系统模型 | 第17-20页 |
2.2 人耳听觉系统 | 第20-29页 |
2.2.1 声波与声音 | 第20-21页 |
2.2.2 人耳的听觉机理 | 第21-29页 |
2.3 人耳听辨 | 第29-30页 |
2.3.1 司法鉴定 | 第29-30页 |
2.3.2 HASR介绍 | 第30页 |
2.4 小结 | 第30-32页 |
第3章 基于高斯混合模型的说话人识别 | 第32-46页 |
3.1 预处理 | 第32-33页 |
3.2 特征提取 | 第33-35页 |
3.3 建立模型 | 第35-42页 |
3.3.1 UBM训练 | 第37-41页 |
3.3.2 说话人模型MAP注册 | 第41-42页 |
3.4 评判得分 | 第42-43页 |
3.5 得分规整 | 第43-45页 |
3.6 小结 | 第45-46页 |
第4章 机器识别系统与听辨系统实现 | 第46-64页 |
4.1 情感数据库设计 | 第46-50页 |
4.1.1 情感分类 | 第46-47页 |
4.1.2 语料的自然度 | 第47-49页 |
4.1.3 MASC语音库 | 第49-50页 |
4.2 说话人识别系统Sonar v3 | 第50-61页 |
4.2.1 模块构成 | 第51-53页 |
4.2.2 系统设计 | 第53-61页 |
4.3 人耳听辨实验组织 | 第61-62页 |
4.3.1 听辨数据安排 | 第61页 |
4.3.2 听辨规则 | 第61-62页 |
4.3.3 听辨实验流程 | 第62页 |
4.4 小结 | 第62-64页 |
第5章 情感说话人识别的人机性能对比 | 第64-85页 |
5.1 实验设置 | 第64-65页 |
5.2 机器和人耳总体性能对比 | 第65-69页 |
5.2.1 不同情感的识别率分布 | 第65-66页 |
5.2.2 不同说话人识别率分布 | 第66-67页 |
5.2.3 不同文本的识别率分布 | 第67-68页 |
5.2.4 不同听辨人识别率分布 | 第68-69页 |
5.3 情感语音的发音变化 | 第69-76页 |
5.3.1 基音频率 | 第69-70页 |
5.3.2 能量和语速 | 第70页 |
5.3.3 呼吸音 | 第70-71页 |
5.3.4 哭腔 | 第71-72页 |
5.3.5 耳语音 | 第72-74页 |
5.3.6 重读 | 第74-75页 |
5.3.7 其他 | 第75-76页 |
5.4 机器识别错误语句分析 | 第76-79页 |
5.5 人机优势对比 | 第79-80页 |
5.6 人机融合 | 第80-83页 |
5.6.1 机器识别可靠性分析 | 第80-82页 |
5.6.2 人机结合方案 | 第82-83页 |
5.7 本章小结 | 第83-85页 |
第6章 总结与展望 | 第85-87页 |
6.1 总结 | 第85页 |
6.2 工作展望 | 第85-87页 |
参考文献 | 第87-89页 |
致谢 | 第89页 |