当前位置:主页 > 法律论文 > 治安法论文 >

基于双目视觉的室内财产保护技术研究

发布时间:2023-02-19 14:51
  盗窃犯罪行为在人们的生活中经常可见,必须采取有效的措施打击盗窃犯罪行为。近年来,计算机视觉技术得到了迅速的发展,人们将其应用到了各个领域,使应用更加高效和智能化。室内财产保护是计算机视觉技术应用的一个重要领域,计算机视觉技术使计算机可以自动分析场景中的内容并做出决策,高效的实时完成特定防盗任务,有力的打击了盗窃犯罪行为。但是目前在室内财产保护领域的应用中,主要是通过处理单目相机获取的图像完成监控任务,缺乏通过融入深度信息检测盗窃行为的应用。通过获取深度信息可以感知场景中各个区域离摄像机的距离以及场景中各个区域之间的三维距离。本文利用双目立体视觉技术将深度信息融入到室内财产保护应用中,研究了取走物检测、嫌疑人确定和嫌疑人身份鉴别技术,主要工作内容如下:(1)比较了几种立体匹配方法,选出了一种适合于本文应用的能够生成致密视差图且匹配准确率和效率较高的立体匹配算法。研究了一种利用双目立体视觉和surendra前景提取方法的取走物检测技术。通过分析深度信息变化改进surendra背景更新算法,然后利用改进过的前景提取方法提取场景中的运动前景,再通过分析运动前景区域的深度变化,最终确定取走物区域...

【文章页数】:73 页

【学位级别】:硕士

【文章目录】:
摘要
abstract
第一章 绪论
    1.1 课题研究背景及意义
    1.2 财产保护相关技术国内外研究发展现状
    1.3 本文的主要工作及内容安排
第二章 基于双目视觉的室内取走物检测技术研究
    2.1 概述
    2.2 双目相机的标定及立体矫正
    2.3 双目立体匹配概述
        2.3.1 立体匹配的约束条件
        2.3.2 立体匹配算法分类
        2.3.3 ELAS立体匹配技术介绍
        2.3.4 评价标准
    2.4 几种双目立体匹配技术的比较
    2.5 双目测距原理和实现
    2.6 取走物检测流程
    2.7 运动目标检测技术
        2.7.1 帧差法
        2.7.2 背景减除法
        2.7.3 surendra前景检测算法
    2.8 取走物检测方法
        2.8.1 深度变化分析
        2.8.2 改进的surendra前景提取算法
        2.8.3 连续帧去除深度突变
        2.8.4 连通区域分析
    2.9 实验结果及分析
    2.10 本章小结
第三章 基于深度信息的嫌疑人确定相关技术研究
    3.1 概述
    3.2 嫌疑人人体检测
        3.2.1 几种基于特征学习的人体检测方法
        3.2.2 人体检测算法比较
    3.3 取走物位置与人之间的空间距离估计确定嫌疑人
        3.3.1 嫌疑人体和取走物原始位置测距点的选取
        3.3.2 计算空间距离确定嫌疑人
    3.4 实验结果及分析
    3.5 本章小结
第四章 融合深度显著性基于人脸识别的身份鉴别方法
    4.1 概述
    4.2 人脸检测及识别
        4.2.1 基于LBP特征及Adaboost分类器人脸检测算法
        4.2.2 LBPH人脸识别算法
    4.3 人脸识别在不同距离上的置信度测试
    4.4 视觉显著性概述
        4.4.1 视觉显著性计算模型
        4.4.2 3D显著性计算模型
    4.5 一种适合人脸识别的融合深度信息的关键帧提取技术
        4.5.1 研究动机
        4.5.2 适用于人脸识别的3D显著性图像计算流程
        4.5.3 肤色特征提取
        4.5.4 纹理特征提取
        4.5.5 基于3D显著性的关键帧提取
    4.6 实验结果及分析
        4.6.1 本文算法提取的关键帧在身份识别方面的性能测试
        4.6.2 融合深度信息与没有融合深度信息的鉴别方法比较
    4.7 本章小结
第五章 总结与展望
参考文献
附录1 攻读硕士学位期间撰写的论文
致谢



本文编号:3746424

资料下载
论文发表

本文链接:https://www.wllwen.com/falvlunwen/fanzuizhian/3746424.html


Copyright(c)文论论文网All Rights Reserved | 网站地图

版权申明:资料由用户4d7fd***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱[email protected]