首页--交通运输论文--公路运输论文--汽车工程论文--汽车结构部件论文--电气设备及附件论文

基于FPGA立体视觉的无人车障碍检测算法研究与实现

摘要第3-4页
Abstract第4-5页
第一章 绪论第8-19页
    1.1 研究背景与意义第8-9页
    1.2 课题研究目的第9-10页
    1.3 国内外研究现状第10-16页
        1.3.1 无人驾驶车辆研究现状第10-14页
        1.3.2 障碍检测研究现状第14-16页
    1.4 论文的创新工作及结构安排第16-18页
        1.4.1 论文的创新工作第16-17页
        1.4.2 论文安排第17-18页
    1.5 本章小结第18-19页
第二章 立体视觉研究第19-36页
    2.1 立体视差理论第19-21页
    2.2 立体匹配理论第21-26页
        2.2.1 图像对校正第21-22页
        2.2.2 初始匹配代价计算第22-24页
        2.2.3 匹配代价聚合第24页
        2.2.4 视差选取第24-25页
        2.2.5 视差效验第25-26页
    2.3 立体匹配常用算法分析第26-31页
        2.3.1 Box-filtering匹配算法第26-27页
        2.3.2 Cross匹配算法第27-29页
        2.3.3 Image guide匹配算法第29-30页
        2.3.4 SGM匹配算法第30-31页
    2.4 FPGA实时应用算法选取第31-35页
        2.4.1 道路环境算法处理效果比较第31-33页
        2.4.2 道路环境算法实时性比较第33-34页
        2.4.3 道路环境算法空间需求比较第34页
        2.4.4 道路环境FPGA应用算法选取第34-35页
    2.5 本章小结第35-36页
第三章 FPGA立体视觉系统第36-61页
    3.1 FPGA算法平台第36-41页
        3.1.1 FPGA硬件概述第36-38页
        3.1.2 FPGA图像处理流程第38-39页
        3.1.3 FPGA算法开发第39-41页
    3.2 FPGA匹配算法第41-54页
        3.2.1 图像预处理第42-44页
        3.2.2 初始代价计算第44-47页
        3.2.3 代价聚合算法第47-50页
        3.2.4 初始视差获取第50-52页
        3.2.5 立体匹配系统第52-54页
    3.3 匹配算法性能分析第54-60页
        3.3.1 匹配精度第54-58页
        3.3.2 匹配速率第58-60页
    3.4 本章小结第60-61页
第四章 障碍检测算法研究第61-74页
    4.1 V-disparity原理第61-64页
        4.1.1 v-disparity模型第61-63页
        4.1.2 v-disparity构建第63-64页
        4.1.3 v-disparity面特征第64页
    4.2 v-disparity可行驶域检测第64-71页
        4.2.1 Hough变换直线检测第65-68页
        4.2.2 道路面提取第68-70页
        4.2.3 道路面提取精度第70-71页
    4.3 ROI区域障碍检测第71-73页
    4.4 本章小结第73-74页
第五章 总结与展望第74-76页
    5.1 工作总结第74-75页
    5.2 研究展望第75-76页
参考文献第76-80页
致谢第80-81页
个人简历、在学期间的研究成果及发表学术论文第81页

论文共81页,点击 下载论文
上一篇:我国增材制造产业创新生态系统构建研究
下一篇:手性联二萘酚衍生物的合成及荧光探针应用