摘要 | 第3-4页 |
abstract | 第4-5页 |
第1章 引言 | 第8-17页 |
1.1 课题背景及研究意义 | 第8-9页 |
1.2 多生物特征融合 | 第9-11页 |
1.3 基于人脸和语音的特征融合研究现状 | 第11-15页 |
1.4 论文内容与组织结构 | 第15-16页 |
1.5 本章小节 | 第16-17页 |
第2章 深度学习相关理论介绍 | 第17-27页 |
2.1 几种典型深度学习基础方法介绍 | 第17-23页 |
2.1.1 受限玻尔兹曼机 | 第17-19页 |
2.1.2 卷积神经网络 | 第19-21页 |
2.1.3 递归神经网络 | 第21-23页 |
2.2 多模深度学习介绍 | 第23-26页 |
2.3 本章小结 | 第26-27页 |
第3章 基于多模关联深度神经网络的人脸和语音特征融合算法 | 第27-47页 |
3.1 引言 | 第27-28页 |
3.2 人脸和语音的特征提取 | 第28-32页 |
3.2.1 基于自定义卷积层的人脸特征提取 | 第28-31页 |
3.2.2 语音特征MFCCs提取 | 第31-32页 |
3.3 多样化特征融合特征层融合算法 | 第32-39页 |
3.3.1 特征层拼接融合 | 第34-35页 |
3.3.2 特征层深度特征非线性拼接融合 | 第35-37页 |
3.3.3 决策层特征相加融合 | 第37-38页 |
3.3.4 决策层深度特征非线性相加融合 | 第38-39页 |
3.4 实验结果与分析 | 第39-46页 |
3.4.1 数据集:Friends | 第39-40页 |
3.4.2 实验设置 | 第40-41页 |
3.4.3 人脸模型 | 第41-42页 |
3.4.4 人脸语音多模型 | 第42-46页 |
3.5 本章小结 | 第46-47页 |
第4章 基于注意力机制的人脸语音特征融合及说话人标注算法 | 第47-72页 |
4.1 引言 | 第47-49页 |
4.2 说话人标注相关工作 | 第49-51页 |
4.2.1 基于单模型的说话人标注方法 | 第49-50页 |
4.2.2 基于多模型的说话人标注方法 | 第50-51页 |
4.3 说话人标注模型 | 第51-62页 |
4.3.1 问题与解决方法公式化 | 第52-53页 |
4.3.2 基于VGG-face的人脸特征提取方法 | 第53页 |
4.3.3 基于LSTM或卷积的语音特征提取方法 | 第53-57页 |
4.3.4 共性语义显著性特征方法 | 第57-59页 |
4.3.5 基于低秩矩阵分解的双线性融合方法 | 第59-62页 |
4.4 实验与结果分析 | 第62-71页 |
4.4.1 数据预处理 | 第64-65页 |
4.4.2 评价标准 | 第65-66页 |
4.4.3 语音编码模块性能与分析 | 第66-67页 |
4.4.4 说话人标注性能与分析 | 第67-71页 |
4.5 本章小结 | 第71-72页 |
第5章 结束语 | 第72-76页 |
5.1 本文工作总结 | 第72-73页 |
5.2 本文工作展望 | 第73-76页 |
参考文献 | 第76-82页 |
致谢 | 第82-84页 |
个人简历、在学期间发表的学术论文与研究成果 | 第84页 |