摘要 | 第9-11页 |
Abstract | 第11-12页 |
第一章 绪论 | 第13-28页 |
1.1 课题研究背景和意义 | 第13-14页 |
1.2 国内外研究现状 | 第14-24页 |
1.2.1 全景成像技术 | 第14-17页 |
1.2.2 主从摄像机系统 | 第17-20页 |
1.2.3 全景及PTZ摄像机的联合标定技术 | 第20-21页 |
1.2.4 目标凝视相关技术 | 第21-24页 |
1.3 论文的主要工作及结构 | 第24-28页 |
第二章 基于Bayer图像信号的鱼眼镜头畸变校正 | 第28-55页 |
2.1 引言 | 第28-29页 |
2.2 面向鱼眼镜头畸变校正的VFP投影方法 | 第29-36页 |
2.2.1 鱼眼镜头畸变和投影的基本原理 | 第29-30页 |
2.2.2 VFP投影方法 | 第30-36页 |
2.3 基于Hermite和通道相关假设的Bayer图像插值 | 第36-50页 |
2.3.1 基于Hermite的Bayer图像插值方法 | 第37-44页 |
2.3.2 基于灰色块差分假设的图像光照估计 | 第44-50页 |
2.4 基于FPGA的鱼眼镜头畸变校正实现 | 第50-53页 |
2.5 本章小结 | 第53-55页 |
第三章 全景凝视系统的联合标定 | 第55-73页 |
3.1 引言 | 第55页 |
3.2 联合标定的模型与求解 | 第55-60页 |
3.2.1 全景摄像机的内参数模型 | 第55-56页 |
3.2.2 PTZ摄像机的参数模型 | 第56-58页 |
3.2.3 基于局部旋转的映射模型与求解 | 第58-60页 |
3.3 基于特征点匹配的联合标定方法 | 第60-63页 |
3.3.1 基于重投影的特征点匹配 | 第60-61页 |
3.3.2 错误特征点对的剔除 | 第61-63页 |
3.3.3 联合标定算法完整流程 | 第63页 |
3.4 联合标定实验与分析 | 第63-72页 |
3.4.1 初步映射关系、重投影及特征点匹配 | 第64-68页 |
3.4.2 联动效果验证 | 第68-72页 |
3.5 本章小结 | 第72-73页 |
第四章 全景凝视系统的行人检测跟踪技术 | 第73-109页 |
4.1 引言 | 第73-74页 |
4.2 全景凝视系统的行人检测跟踪基本框架 | 第74-76页 |
4.3 基于图像的行人检测 | 第76-89页 |
4.3.1 Adaboost分类器 | 第76-77页 |
4.3.2 积分通道特征与尺度归一化 | 第77-82页 |
4.3.3 嵌入重采样的级联检测算法 | 第82-86页 |
4.3.4 标准数据集实验 | 第86-89页 |
4.4 基于检测的行人跟踪 | 第89-96页 |
4.4.1 粒子滤波行人检测跟踪方法 | 第91-94页 |
4.4.2 特征点导向的运动模型 | 第94-96页 |
4.5 实验与分析 | 第96-107页 |
4.5.1 全景摄像机运动检测及目标跟踪、PTZ摄像机的联动拍摄 | 第97-99页 |
4.5.2 行人检测跟踪的实验与分析 | 第99-107页 |
4.5.3 实验小结 | 第107页 |
4.6 本章小结 | 第107-109页 |
第五章 结论与展望 | 第109-111页 |
致谢 | 第111-112页 |
参考文献 | 第112-121页 |
作者在学期间取得的学术成果 | 第121-122页 |