首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

视觉注意建模与非安全驾驶状态分析方法研究

摘要第8-9页
ABSTRACT第9页
第一章 绪论第10-22页
    1.1 研究背景第10-11页
    1.2 驾驶员眼动规律及基于眼动的驾驶员状态监测研究现状第11-13页
        1.2.1 驾驶员眼动规律的研究第11-13页
        1.2.2 基于驾驶员眼动情况的驾驶员非安全驾驶状态检测系统第13页
    1.3 视觉显著性检测研究现状与发展动态第13-16页
        1.3.1 基于图像特征组合模型的视觉显著性检测算法第13-15页
        1.3.2 基于学习的视觉显著性检测算法第15-16页
    1.4 视觉显著性检测数据库第16页
    1.5 基于深度神经网络的物体检测算法第16-17页
    1.6 本文研究内容及主要贡献第17-22页
        1.6.1 本文的研究内容及组织结构第17-19页
        1.6.2 本文的主要贡献第19-22页
第二章 视觉显著性数据库的设计与构建第22-36页
    2.1 基于眼动仪的眼动信息采集第22-25页
        2.1.1 TobiiX2-60眼动采集系统第22-23页
        2.1.2 眼动信息采集系统架构第23-25页
    2.2 基于眼动信息指导的显著性区域标注第25-34页
        2.2.1 基本思想第25-26页
        2.2.2 基于SLIC超像素的标注第26-29页
        2.2.3 基于改进的IntelligentScissors算法的标注第29-32页
        2.2.4 语义信息标注第32-33页
        2.2.5 自然图片的标注结果第33-34页
        2.2.6 交通场景图片的标注第34页
    2.3 视觉显著性数据库的应用第34-35页
    2.4 本章小结第35-36页
第三章 基于深度神经网络的实时视觉显著性检测算法研究与设计第36-52页
    3.1 颜色信息对视觉显著性算法的影响研究第36-40页
        3.1.1 实验设计第36-37页
        3.1.2 SR算法在彩色空间的推广第37页
        3.1.3 对颜色敏感的彩色图像第37-39页
        3.1.4 ROCC评价准则第39-40页
        3.1.5 颜色对显著性模型的影响研究的结论第40页
    3.2 基于深度神经网络的视觉显著性检测模型第40-49页
        3.2.1 ZF深度卷积网络模型第40-42页
        3.2.2 RPN模型第42-44页
        3.2.3 基于概率模型的显著性检测第44-45页
        3.2.4 ROI池化操作第45页
        3.2.5 基于全局及局部信息的检测模型(Global-LocalFeatureRCNN)第45-48页
        3.2.6 GLRCNN的训练过程第48页
        3.2.7 GLRCNN与FasterRCNN比较分析第48-49页
    3.3 基于深度神经网络的实时视觉显著性检测算法的优势第49-50页
    3.4 本章小结第50-52页
第四章 驾驶员非安全驾驶状态检测系统设计与构建第52-60页
    4.1 Tobii眼动仪SDK的使用及眼动仪的标定第52-54页
        4.1.1 Tobii眼动采集分析SDK简介第52页
        4.1.2 眼动仪的标定第52-54页
    4.2 驾驶员非安全驾驶状态检测系统的构建第54-58页
        4.2.1 视角误差分析第54-56页
        4.2.2 驾驶员非安全驾驶状态判断策略第56-57页
        4.2.3 驾驶员非安全驾驶状态检测系统架构第57-58页
    4.3 本章小结第58-60页
第五章 总结与展望第60-62页
致谢第62-64页
参考文献第64-68页
作者在学期间取得的学术成果第68页

论文共68页,点击 下载论文
上一篇:计算机视觉核心算法在移动GPU上的高性能实现
下一篇:磁目标探测联合仿真技术研究