首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度卷积神经网络的多通道图像超分辨方法

摘要第3-4页
Abstract第4-5页
1 绪论第8-14页
    1.1 研究背景及意义第8-10页
    1.2 图像超分辨率技术研究现状第10-11页
    1.3 视频超分辨率技术研究现状第11-12页
    1.4 高光谱图像超分辨率技术研究现状第12-13页
    1.5 本文的主要工作及组织架构第13-14页
2 相关技术介绍第14-26页
    2.1 超分辨技术基础理论第14-17页
        2.1.1 图像成像模型第14页
        2.1.2 超分辨率算法重建过程第14-15页
        2.1.3 超分辨基准算法-双三次插值算法Bicubic第15-17页
    2.2 超分辨质量评价标准第17-18页
    2.3 深度学习基础理论第18-24页
        2.3.1 人工神经网络基础理论第18-19页
        2.3.2 卷积神经网络基础理论第19-24页
    2.4 深度学习框架第24-25页
    2.5 本章小结第25-26页
3 一种基于深度卷积神经网络的视频超分辨率重建研究第26-45页
    3.1 引言第26页
    3.2 SRCNN图像超分辨方法第26-27页
    3.3 VSRnet视频超分辨方法第27-28页
    3.4 VSRnet视频超分辨方法推广第28-35页
        3.4.1 深度卷积神经网络第28-29页
        3.4.2 自适应运动补偿第29页
        3.4.3 预训练权值转移第29-30页
        3.4.4 损失函数第30-31页
        3.4.5 实验结果与分析第31-35页
    3.5 基于运动补偿的端到端视频超分辨方法第35-44页
        3.5.1 FlowNet2光流估计模型第36-38页
        3.5.2 改进的端到端视频超分辨模型第38-40页
        3.5.3 实验结果与分析第40-44页
    3.6 本章小结第44-45页
4 基于时空相关性的视频超分辨率重建研究第45-57页
    4.1 引言第45页
    4.2 多尺度金字塔Lucas-Kanade光流法第45-48页
    4.3 基于时空相关性的损失函数构造第48-49页
    4.4 基于时空相关性的视频超分辨重建算法第49页
    4.5 实验结果与分析第49-56页
        4.5.1 实验环境及参数介绍第49-50页
        4.5.2 基于时空相关性的损失函数研究第50页
        4.5.3 改进算法比较第50-56页
    4.6 本章小结第56-57页
5 基于空谱联合的高光谱图像超分辨率重建研究第57-72页
    5.1 引言第57页
    5.2 高光谱图像超分辨重建的特点第57-58页
    5.3 基于光谱信息的一维高光谱图像超分辨重建第58页
    5.4 基于空间信息的二维高光谱图像超分辨重建第58-59页
    5.5 基于空谱联合的三维高光谱图像超分辨重建第59-60页
    5.6 实验结果与分析第60-71页
        5.6.1 数据集及实验环境介绍第60-61页
        5.6.2 一维重建实验结果分析第61-62页
        5.6.3 二维重建实验结果分析第62-65页
        5.6.4 三维重建实验结果分析第65-71页
    5.7 本章小结第71-72页
6 总结与展望第72-74页
致谢第74-75页
参考文献第75-80页
附录第80页

论文共80页,点击 下载论文
上一篇:一种WSN目标一致性多主体实现方法与实验研究
下一篇:基于Spark的高光谱图像分布式并行分类