递归神经网络对功率放大器的行为级建模
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第9-14页 |
1.1 课题背景 | 第9-10页 |
1.2 国内外的研究进展 | 第10-11页 |
1.3 研究的环境 | 第11-13页 |
1.3.1 NeuroModeler | 第11-12页 |
1.3.2 Agilent-ADS | 第12-13页 |
1.4 研究内容及结构安排 | 第13-14页 |
第二章 神经网络的原理和训练方法 | 第14-22页 |
2.1 神经网络介绍 | 第14-15页 |
2.2 神经网络基础 | 第15页 |
2.3 多层感知神经网络(MLP) | 第15-17页 |
2.4 神经网络的训练过程 | 第17-20页 |
2.4.1 输入输出定义 | 第17页 |
2.4.2 数据的产生 | 第17-18页 |
2.4.3 数据组织 | 第18页 |
2.4.4 神经网络训练 | 第18-20页 |
2.5 神经网络的训练算法 | 第20-21页 |
2.5.1 BP算法 | 第20页 |
2.5.2 基于梯度优化的训练算法 | 第20-21页 |
2.6 本章小结 | 第21-22页 |
第三章 功率放大器的非线性特性及记忆效应 | 第22-30页 |
3.1 功率放大器的非线性 | 第22-25页 |
3.1.1 谐波失真 | 第22-23页 |
3.1.2 交调失真 | 第23-25页 |
3.1.3 AM-AM与AM-PM | 第25页 |
3.2 功率放大器的记忆效应 | 第25-29页 |
3.2.1 记忆效应的定义 | 第25-26页 |
3.2.2 记忆效应的分类 | 第26页 |
3.2.3 记忆效应存在的原因 | 第26-28页 |
3.2.4 记忆效应在功率放大器中的表现 | 第28页 |
3.2.5 提取变化较慢信号用于神经网络 | 第28-29页 |
3.3 本章小结 | 第29-30页 |
第四章 动态神经网络介绍 | 第30-36页 |
4.1 原始的动态电路 | 第30页 |
4.2 动态神经网络模型 | 第30-31页 |
4.3 DNN模型的训练 | 第31-34页 |
4.3.1 初始训练 | 第32-33页 |
4.3.2 最终训练 | 第33-34页 |
4.4 动态神经网络在仿真环境下如何实现 | 第34-35页 |
4.4.1 导数电路单元 | 第34页 |
4.4.2 仿真软件中的导数单元 | 第34-35页 |
4.5 本章小结 | 第35-36页 |
第五章 递归神经网络的原理和训练方法 | 第36-50页 |
5.1 递归神经网络结构 | 第36-39页 |
5.1.1 全局反馈型递归神经网络 | 第36-38页 |
5.1.2 前向递归神经网络 | 第38-39页 |
5.2 递归神经网络模型构建方法 | 第39-41页 |
5.3 递归神经网络与其他结构神经网络区别 | 第41-42页 |
5.4 递归神经网络结构讨论 | 第42-44页 |
5.5 递归神经网络模型的建模过程 | 第44-49页 |
5.5.1 ADS中获取仿真数据 | 第44-45页 |
5.5.2 数据转换 | 第45-46页 |
5.5.3 递归神经网络的训练 | 第46-47页 |
5.5.4 递归神经网络在仿真环境中建立 | 第47-49页 |
5.6 本章小结 | 第49-50页 |
第六章 递归神经网络建模实例 | 第50-56页 |
6.1 ADS软件中功率放大器实例 | 第50-53页 |
6.1.1 短期记忆效应建模 | 第50-51页 |
6.1.2 长期记忆效应建模 | 第51-53页 |
6.2 飞思卡尔MOSFET的功率放大器 | 第53-55页 |
6.2.1 短期记忆效应建模 | 第53-54页 |
6.2.2 长期记忆效应建模 | 第54-55页 |
6.3 本章小结 | 第55-56页 |
第七章 总结 | 第56-57页 |
参考文献 | 第57-63页 |
发表论文和参加科研情况说明 | 第63-64页 |
附录 1 建模实例 1 的功率放大器电路 | 第64-65页 |
附录 2 建模实例 2 的功率放大器电路 | 第65-66页 |
致谢 | 第66页 |