一、图像特征检测与运动目标分割算法的研究和实现(论文文献综述)
庄漫[1](2021)在《道路运动目标检测和跟踪算法的改进与原型设计》文中认为智能交通系统中,道路运动障碍物的检测跟踪一直都是一个重点的研究内容。由于行车过程中车载摄像头运动导致背景运动,使得视频中存在运动的障碍物与背景两个相互独立的运动导致目标检测和后续跟踪困难。对于在汽车辅助驾驶系统中,道路上运动障碍目标的检测时由于车载摄像头运动引起的背景复杂以及对检测跟踪结果的实时性准确性等技术要求,提出一种有效的解决方案。该论文主要工作有:(1)目标检测问题上,将视频图片帧进行感兴趣ROI的选取,对ROI区域进行中值滤波,灰度化等操作去噪增强。再进行图像特征点的提取,通过分级特征角点检测算法计算图像特征角点,然后采用改进的金字塔LK光流法对感兴趣的特征点计算光流误差,在帧间进行匹配跟踪以此建立帧间的运动光流场。(2)在光流场基础上,本文提出一种基于光流点特征的DBSCAN聚类分割改进算法,用于光流场的区域目标的分割,得到光流失量图。结合光流矢量点的特征属性,改进相似性度量的准则,将光流点速度矢量的相似性和光流点的坐标密度分布纳入相似性度量函数。通过这个改进的度量可以判断光流点是否是处于一个目标区域,能够得到比较好的分割效果,实现光流场的目标分割,定位当前帧的运动目标区域,初步实现多目标的检测。(3)道路运动目标检测跟踪算法的设计与改进工作。主要是:1)提出一种分块自适应阈值算法,通过对图像分块提高阈值分割的准确性,得到阈值分割图。2)提出一种基于运动三图融合的运动目标检测流程,结合Canny检测获得边缘分割图,将光流失量图与分块阈值图,边缘融合图通过按像素相与操作,多次形态学处理,区域生长法获得精确的二值化图像,提高在移动车载摄像下对运动目标的检测准确率。3)在后续帧运动跟踪问题上,结合Cam Shift算法,构建系统的卡尔曼运动模型,建立目标的动态方程和观测方程,使用卡尔曼滤波器通过不断的迭代,预测各个目标在下一帧中的位置,减少Cam Shift算法的迭代次数,增加跟踪的稳定性。4)设计道路运动目标检测跟踪的系统,完成系统的原型设计与实现的工作。实验表明,该算法可以在车辆行驶过程中能够很好的检测出运动的目标,分割效果良好。同时跟踪算法也有良好的效果,而且在复杂道路上有良好的跟踪准确率。
郭飞[2](2020)在《视觉假体中视觉图像信息感知关键技术研究》文中研究说明目前,相较于正常人类视觉系统,视觉假体诱发的视觉感知造成大量视觉特征信息的丢失,严重影响假体植入者对生活场景的感知能力。此外,随着视觉假体系统功能的完善,对其硬件处理平台的性能提出了挑战。为了更好的解决上述问题,本文基于计算机视觉、微电子科学以及视觉认知科学,开展了基于视觉假体的视觉图像信息处理以及硬件系统集成的研究。论文的主要创新性工作如下:针对视觉假体诱发的视觉感知分辨率低以及特征信息缺乏等问题,本文提出一种基于人工特征的高效显着目标检测算法。该算法通过联合最短测地距离和流形排序技术,充分利用场景图模型中超像素的关联关系,实现自然场景中显着目标的检测;相较于传统显着目标检测算法,该算法同时兼顾背景和目标特征,使其能够更加高效准确地实现显着目标的检测。同时,为了提高假体植入者物体的识别能力,本文基于显着目标检测算法设计了两种仿真假体视觉下显着物体优化感知处理策略。该策略利用边缘检测和图像缩放技术,优化物体在低分辨率仿真视觉下的呈现,以此来提高假体植入者在不同场景下对物体的识别能力。针对复杂场景下传统显着目标检测算法检测准确率低的问题,本文提出一种基于深度学习技术的显着目标检测算法。在该算法中,卷积神经网络中引入空洞卷积替代传统卷积操作,使得该网络能够在不增加反卷积网络和池化操作的前提下产生高分辨率的输出。这种方式相比于传统全卷积分割网络,其参数和深度会大大减少。另外,针对该网络的输出特征,提出了一种细化方法来保持物体的空间一致性并保留物体的轮廓。该算法在复杂场景下显着物体检测性能能够达到现阶段的先进水平,同时该算法具有较小的网络参数和更快的算法处理速度。该算法的引入能够大幅提高视觉假体系统中显着物体优化处理的效率。针对仿真假体视觉下高动态场景(移动相机)中运动物体识别的研究,本文提出一种无监督运动目标分割算法。该算法通过联合空间和时间显着性提高运动目标检测精度。这种显着性联合分析能够弥补时间维度中目标检测出现的空洞,提高算法的鲁棒性。同时,空时边缘取代光流场作为运动候选区域线索,能够减少因为光流估计的遮挡和位移带来的错误。相较于传统运动目标检测算法,该算法能够更加有效的实现高动态场景下运动物体的检测与分割。同时,为了提高假体植入者对高动态场景下运动物体的识别能力,本文基于运动目标分割算法设计了两种运动物体优化呈现处理策略;该处理策略利用灰度变换和边缘检测技术,增强运动物体在低分辨率仿真视觉下的呈现。运动物体分割算法与优化处理策略的引入,显着提高了假体植入者对高动态场景下运动物体识别的能力,扩展了假体植入者的活动场景。通过开展上述研究工作,能够为视觉假体在视觉感知处理领域的研究提供新的解决方案,并为扩展假体植入者的活动范围奠定基础。
刘普强[3](2020)在《基于图像实例分割的动态SLAM方法研究》文中研究表明随着国家对人工智能领域的重视程度加大,移动机器人技术在我国迎来重大的发展,在各个行业的应用也越来越广泛,例如送快递的无人配送车、街头巡逻的警用机器人和政务大厅里的智能服务机器人等等。随着社会发展的需要,人们对移动机器人的智能化要求也越来越高,要实现智能化,机器人自主定位是关键。基于视觉的同步定位与建图(Visual SLAM)技术可以帮助机器人在未知的环境下实现自主定位。经过几十年的发展,SLAM技术已经取得很大进步,定位精度也越来越高,但是目前比较成熟的SLAM算法大都是假设环境为静态的,即在静态环境下定位精度比较高,如果环境中出现运动的人或者移动的物体时,定位精度就会非常低。因此处理好环境中的动态对象成为提升移动机器人自主定位精度的关键。针对目前语义分割网络难以满足SLAM运行实时性要求的问题,本文设计了一种实时性较高的实例分割网络,在保证分割精度的同时,也满足SLAM系统的实时性要求。同时针对当前传统SLAM算法在动态场景下定位精度低和鲁棒性差问题,本文通过结合图像实例分割技术和多视图几何技术对现有经典ORB-SLAM2算法进行改进,增强其在动态环境下对运动目标的处理能力,提高算法的定位精度。本文的具体工作内容如下:首先针对当前大多数语义分割网络难以满足视觉SLAM系统实时性要求的问题,本文以YOLACT实例分割网络为基础,对其使用传统非极大值抑制(NMS)方法对重复目标检测框抑制耗时的问题进行优化,提出一种并行运行的NMS方法,相比传统串行运行方式,在保证YOLACT网络分割精度的同时,提高了其运行速度。最后在公开数据集上与当前流行的Mask R-CNN实例分割网络进行对比实验,结果表明本文提出的改进实例分割网络综合性能更优,实时性更好,符合SLAM对实时性的要求。其次针对环境中动态对象造成SLAM定位精度降低的问题,本文设计了一种融合实例分割技术和多视图几何的动态对象分割算法。通过结合光流法和多视图几何的方法对图像中的动态特征点进行跟踪与检测,然后将动态点检测结果与实例分割线程分割结果结合判断图像中的动态对象区域并对其进行分割。接着针对当前传统SLAM算法在动态场景中定位精度较低问题,本文提出一种基于动态对象分割的改进SLAM算法。本文选取当前比较经典的ORB-SLAM2算法作为基础框架进行改进,在视觉里程计部分融入本文设计的动态对象分割算法,实现对环境中动态目标的检测和分割任务,接着使用没有动态对象干扰的图像进行特征匹配和位姿估计,提高了算法在动态场景下的鲁棒性。最后使用公开数据集对本文提出的动态对象分割算法的有效性进行验证,并且对本文改进的ORB-SLAM2算法与改进前的算法进行位姿估计实验,结果表明本文提出的动态目标分割算法是有效的,同时本文提出的改进ORB-SLAM2算法相比改进前的算法在高动态环境和低动态环境下均可以取得更高的定位精度和更小的误差,在动态场景下具有较好的鲁棒性,同时也满足实时性要求。
罗宇[4](2020)在《无人机图像的多目标检测与识别》文中提出本文以无人机航拍图像为背景,以目标检测与识别为研究目标,重点解决目标检测与识别过程中摄像机与目标存在相对运动、特征提取难、目标检测与识别精度不高的问题,进而有效提升目标检测与识别算法的速度和精度。根据以上要求,本文的研究内容主要集中在以下三个方面:针对非线性尺度空间KAZE特征检测算法特征提取速度慢、特征描述算子计算复杂的问题,本文通过快速显示扩散滤波算法对原算法的非线性尺度空间迭代步长进行了重新定义,并通过二进制特征描述子将原算法64维的特征描述算子重新采用八位二进制特征描述算子表示,不仅改善了原算法特征提取耗时长的问题,也减少了特征匹配的运算复杂度,进一步提升了特征匹配准确率与速度,在整体上提升了KAZE算法的性能。在目标检测方面,由于摄像机与目标之间存在相对运动,目标容易形变,外部环境复杂,受到噪声干扰大等问题,本文在改进后的具有尺度与旋转不变性的KAZE特征算法的基础上,对特征点3×3邻域像素的二阶自相关矩阵进行判断,剔除了较敏感的特征点;然后采用金字塔光流算法跟踪滑动窗口帧间的特征点,通过计算滑动窗口帧间特征点位移矢量来补偿了摄像机运动,在此基础上通过单应矩阵模型改善了传统的基于帧间像素位移的图像配准方法,能够有效消去大量背景区域,提高了前景分割精度和准确率。在目标识别方面,针对传统算法在整个图像域搜索目标进行识别,造成了效率与精度低下的问题,首先,采用超像素迭代聚类分割算法得到了初始的超像素区域;其次,通过区域邻接无向图模型对分割区域进行了融合,并进一步通过最佳阈值判别,最终将候选区域数量大大减少,提高了目标搜索的效率;然后,通过金字塔直方图对图像不同尺度下的RGB-KAZE特征进行了计算,最终利用SVM分类器生成了基于空间匹配的金字塔直方图字典,并利用该模型成功的对多数量的目标完成了识别。以上的实验结果都在CPU 2.4GHZ Intel i3的PC机上利用MATLAB2016与Visual Studio2017平台完成了仿真实验。通过本文所用到的算法在无人机实际航拍图像和VOC 2010标准库上完成大量的实验分析也是本文研究的重要组成部分,充分地说明了本文算法的可靠性。
胡方超[5](2019)在《基于三维点云分析的智能汽车目标检测方法研究》文中研究指明智能车辆技术是未来汽车发展的重要方向,越来越多地受到社会的关注。为了更好地实现智能汽车的安全性,车辆道路场景下的实时环境感知与动态目标检测技术,已成为当前智能网联汽车领域研究的重点和热点,面临着系列技术难题亟待解决。基于机器视觉的环境感知与目标检测技术,由于具有成本低、信息量大、使用方便等明显优势,正日益得到国内外智能汽车研发机构和产业界的高度重视,相关新技术创新与工程应用发展迅速,激光雷达与机器视觉相融合的技术路径将成为智能汽车感知技术发展的主流。本论文以智能汽车三维场景构建与道路动态目标检测为研究目标,提出了机器视觉三维点云拼接与点云分割的新方法,对于解决基于车载相机进行环境感知与目标检测的准确性、实时性等突出问题,具有明显的理论意义和应用价值。本论文的主要内容有以下几个方面:1.研究了基于机器视觉的地图构建问题。采用双目相机获取的动态图像,构建智能汽车决策控制过程所理解的高效、准确、实时的三维地图。第一,针对基于双目对应图像特征匹配生成点云的准确性问题,提出双目图像环形匹配完成度指标和计算方法,通过选取匹配完成度分值最高的特征提取算子对双目图像进行特征提取及匹配,使双目图像对应特征生成点云更加准确。第二,运用相机运动构成多视角场景,考虑到点云拼接重叠区域同名点冗余问题,提出了基于双目图像特征匹配完成度指标计算的权值分配算法,从而减少了拼接点云重叠区域同名点个数。第三,考虑到多视角点云配准问题,提出基于Pn P(Perspective-n-Point)的局部Bundle Adjustment优化算法,可获取优化后的三维点及旋转矩阵。第四,考虑在消除同名点时影响对重叠区域内点云分布问题,提出了基于重叠区域中心的端点消除算法,既可减少了同名点个数,又不影响点的分布,从而使点云更准确地表现检测目标的轮廓。第五,考虑到生成点云有效性问题,提出一种基于平面拟合的点云分类算法,将拼接生成点云的基本平面去除,将基本平面以外的点与对应目标构成整体,从而能够快速地表示出智能汽车所关心的目标点云,并估算出目标点云的体积,提高了地图构建的准确性和高效性。2.研究了基于场景流与v-视差估计的双目视觉的目标检测问题。首先,针对基于双目视觉三维点云分析的快速目标检测问题,提出了结合场景流与v-视差估计目标推荐区域的方法,得到目标在图像中的大致位置及轮廓边界,并且在对应图像目标推荐区域内局部重建形成目标稀疏点云。第二,针对基于区域生长的点云分割方法生成种子点的不确定问题,提出一种指定目标稀疏点云为种子点的区域生长快速点云分割方法,得到指定分类的目标点云和目标点云三维边界框。第三,针对三维目标检测结果在对应二维图像中实时表示问题,提出一种改进的目标三维框估计算法,实现了对三维目标在实际场景中的位姿估计及运动状态估计,并且通过将三维目标边界框实时投影在对应二维图像中,实现三维目标检测及姿态估计。3.研究了基于双目图像边缘与立体像素估计的三维目标检测方法。第一,针对双目图像中快速目标检测问题,提出了基于目标图像边缘效应与立体像素估计的双门限目标定位方法,从而快速估算目标在图像中的位置,实现在双目图像序列中快速生成目标推荐区域,快速局部重建目标三维点云。第二,针对多个目标引起的边缘候选点不能确定目标边界问题,提出了候选边缘点与邻近边缘点距离的判断规则,有效区分候选点属于同一目标或是分属不同目标。第三,针对候选边缘点为目标内部点或者接近内部点引起目标边界不封闭的问题,提出了候选边缘点与最近邻5个候选点连线夹角之和判断规则,能有效判定该候选点是否为边缘点。第四,针对目标边缘点与立体像素估计点在二维图像中投影的不确定性问题,提出了基于双目边缘特征与立体像素的重投影误差局部Bundle adjustment算法,实现目标边缘点的精确定位。第五,通过局部目标点云法向量与场景点云法向量距离匹配,将目标点云从场景中点云中直接分离出来,实现目标在场景点云中的检测与定位。
陆福星[6](2019)在《天基红外弱小目标图像检测技术研究》文中研究表明红外探测因全天候、作用距离远和抗干扰性好等优点有广泛的应用。随着科学技术的不断发展,目标类型复杂多样给红外探测系统提出了更高的要求,实现对目标地连续探测具有重要的应用价值。如何实现更早更快地发现并跟踪目标是红外探测信息处理领域迫切需要解决的重点和难点问题。本文围绕天基平台远距离探测红外弱小目标的红外信息处理技术需求,研究了红外弱小目标及其背景的特性,对目标检测与相关技术进行了深入地分析和研究,取得了一定的研究进展和成果。下面介绍论文的研究工作和主要研究成果:在红外弱小目标的图像特性方面,研究了弱小目标的红外辐射特性及红外成像特征,分析了目标的时域变化特性,讨论了目标运动过程中大气、深空背景下的红外图像特性,结合图像的噪声特性,总结了红外弱小目标的检测难点。在复杂背景下的红外图像预处理方面,研究了复杂背景中云背景图像的复杂特点及预处理算法,针对传统的PM模型滤波方法的局限性,本文提出了一种基于Top-hat变换和改进的PM模型滤波相结合的背景抑制算法。仿真实验结果表明本文提出的方法与原有的PM模型滤波相比,算法信噪比提高了2倍,背景抑制能力提升了23倍;在目标检测方面,同等虚警概率下本文的算法检测概率与原有PM模型滤波算法相比提高了40%。也围绕复杂背景中的深空背景图像的特点及红外弱小目标预处理算法开展了初步研究,并进行了仿真验证。在单帧图像的目标检测方面,基于图像检测的基本理论重点分析了五种经典图像分割方法,详细比较了不同算法的应用场景,结合本课题研究对象的特点,选取了恒虚警率的图像分割方法。针对复杂背景下的红外弱小目标检测困难的问题,提出了一种背景自适应的多特征融合检测方法,根据不同背景下的序列图像进行背景自适应判断,选取不同的预处理方法,然后利用目标的梯度特征、局部熵和方向比率等特征进行融合,提高红外弱小目标检测性能。仿真实验表明,本文提出的检测算法可以有效减少单帧虚警的个数,明显提高系统的检测效率。在序列图像的检测方面,本文详细分析了经典的先检测后跟踪方法和先跟踪后检测方法,比较了两类算法的优缺点。针对传统管道滤波难以消除固定背景尖锐噪声而造成虚警较高的局限性,提出了一种动态管道滤波方法,充分利用目标在时间维上的运动连续性和灰度一致性的特点,对帧间疑似目标进行连续匹配,并对管道进行动态更新,及时删除虚假的背景噪声,能有效提升检测概率和降低虚警概率。针对10个目标的序列仿真和实测图像结果表明:云背景序列图像中,在信噪比为2的条件下原有的管道滤波算法检测概率为80.5%,虚警概率为2.5806×10-6,本文的算法检测概率则提高到96%,虚警概率降为4.9032×10-7。同时,本文的算法处理时间仅为原来的管道滤波的50%,显着提高了算法的效率。在目标跟踪方面,本文研究了基于滤波和数据关联与基于目标建模和定位等跟踪算法的特点和适应场景,采用概率数据关联与卡尔曼滤波相结合的算法实现对红外弱小目标的跟踪。利用卡尔曼滤波器对目标运动位置进行预测,在以预测点为中心的跟踪门内进行可疑目标提取,利用概率数据关联实现对目标的精确定位,实时更新卡尔曼滤波器参数,并预测下一步目标出现的位置,实现目标的有效跟踪,仿真和实验结果表明该算法红外弱小目标的定位精度整体误差在23个像素,有明显的提高。最后,本课题设计了仿真验证系统和红外探测实验平台,从检测概率、虚警概率和处理速度等方面进行验证与数据比对,利用仿真和实测图像数据验证了本文提出的处理算法的有效性和处理框架的合理性,算法具备移植硬件可能性。
刘思成[7](2019)在《区域安防中图像目标检测方法研究》文中认为近年来,计算机视觉技术发展迅猛,特别是在图像处理、目标检测等领域的研究取得了许多成果。在区域安防应用中,突然出现的运动目标以及行人入侵等事件,可能对区域的安全造成威胁。因此,针对运动目标以及行人的检测在区域安防领域的研究具有重要的研究价值和现实意义。本文针对当前区域安防应用中运动目标与行人检测算法进行深入研究,并提出了相应的改进算法。主要包括图像预处理中的图像分割方法,分析现有运动目标检测和行人检测中常用方法存在的优缺点,并结合实际应用要求提出了相应的改进方法。论文主要工作和研究成果如下:1.针对现有的图像分割方法存在分割精度差,丢失细节的问题,提出一种基于改进遗传算法的图像分割方法。该方法利用了图像自身像素点的相关信息,并结合遗传算法,重新设计适应度函数等模块。该算法能够清晰地分割出目标,能够保留足够的特征细节,有效改善了区域安防场景下目标的分割效果得到了优化和提升。2.针对Vibe运动目标检测算法中无法快速消除“鬼影”的不足,提出一种基于图像分割的Vibe运动目标检测算法。该算法利用图像分割算法,使用到的分割阈值信息对Vibe算法中的前景点进行再一次筛选,以得到符合判决条件的前景点。实验结果表明,该算法能够有效改善“鬼影”无法快速消除问题。3.针对使用单一特征对行人检测时检测精确度较低,而使用特征融合的方式,导致实时性降低的问题,提出一种基于S-HOG特征的行人检测算法。该算法使用特征融合方法,对HOG特征和SIFT特征进行处理,然后利用PCA进行特征降维,将两种融合后的高维特征进行降维处理。最后,使用SVM分类器训练得到基于S-HOG特征的行人检测模型。实验验证了该算法的性能。
李孟军[8](2019)在《交通路口异常事件检测及识别技术研究》文中提出交通路口异常事件是影响交通正常运行的重要因素,且交通路口作为公共出行集中度较高位段,公共安全事件的发生影响范围广。随着城市发展和生活水平的逐步提高,快速的城市化过程,使得北京迅速成为排名世界前20位的超大型城市。但是,同样随着城市的发展和机动车量的迅速增加,城市交通环境急剧恶化,交通拥堵成为城市的常态,据统计60%-70%交通拥堵受到交通事故的影响。本课题研究为交通路口异常事件检测和识别提供了研究思路,为交通路口异常事件类型识别提供了技术支撑,对于交通路口异常事件的及时发现、及时处理能够减少或疏解交通拥堵情况有重要意义。能够提高相关部门针对异常事件的及时性反馈和救援效率,避免危害事件的扩大化,有效的减少人民生命财产安全受到的危害。基于视频的事件检测作为一种快速、无损、高效的检测方法,成为交通监控异常事件的主要手段。由于交通环境复杂,影响交通运行条件多样,基于视频的自动化检测方法并不完善,主要存在如下问题:1)大多数交通异常事件的检测,只能够检测到异常事件的发生,而并不能识别交通异常事件发生的类型,难以实现异常事件的快速处理和反馈;2)现有的交通异常事件一般注重交通车辆的运行而忽略了行人在交通异常事件中处于的弱势地位和主导地位。本论文作为自选课题,针对交通路口异常事件的影响,对交通路口异常事件类型,以及相关技术方面进行研究。本论文研究内容主要包括以下三个方面:1)行人目标的准确性分割方法,用于个体行人目标的精确性分割;2)人体行为的低秩纹理描述,用于群体异常事件类型识别。3)基于人体关键点分析的人体姿态估计,用于行人倒地事件类型识别。本文的主要研究工作及创新点如下:(1)针对交通路口目标检测范围背景信息的影响,提出了一种基于全局显着性的双窗Fisher自适应目标分割方法,可以快速准确提取目标,减少目标背景的影响。针对个体目标的邻域环境相对连续、统一问题,提出对目标进行全局显着性提取获得目标的显着性图。结合双窗阈值分割结构简单且能兼顾不同局部信息的误差和Fisher线性判断阈值能够准确合理的自适应选择阈值的优点,提出一种双窗Fisher自适应阈值分割方法,对个体目标的显着性图进行阈值分割,实现个体目标的准确性提取,避免个体目标邻域背景信息的影响。(2)针对群体事件研究群体密度方法的复杂性,提出了一种基于低秩纹理方向的人体描述方法,并以此为基础,构建群体异动事件模型,识别不同的群体异动事件。人体本身带有的纹理特征伴随人体行为改变而改变,将人体目标作为整体纹理进行提取,由于人体行动方向所带动的人体结构具有倾向性,其表现在图像中为所选择的个体目标区域为稀疏矩阵区域,具有较高的秩。而人体直立或相对直立时,人体区域矩阵密集,同样具有较高的秩。不同之处在于,稀疏矩阵能够进行压缩,获得较低的矩阵秩。密集矩阵并不随着矩阵压缩而降低矩阵秩。低秩纹理特征提取能够将选择的图像区域进行矩阵压缩,以便获得较低的矩阵秩。计算获得选择图像区域的低秩方向,从而对图像选择区域进行转换,形成图像目标的低秩纹理方向和运动趋势描述特征。群体异常事件是多目标之间的相互关系而反映出的总体特性,构建多目标的方向和运动趋势关系,形成群体异常事件类型检测模型。(3)针对交通路口行人倒地事件原因的复杂性,提出一种基于人体骨骼关键点分析的姿态评估方法,并以此为基础,构建路口行人倒地事件识别模型。人体姿态的变化伴随人体骨骼关键点相互关系的转变,以人体骨骼颈部关键点为中心,选取人体动作相对重要的8个关节点(左右肩、左右肘、左右臀、左右膝),并提取关键的位置信息,构建关键点之间的相互关系。以颈部关键点为基准,计算到该基准点的八个距离熵值,并计算左右肘、左右膝四个关键点直接到基准点的距离熵与经过中间关键点左右肩、左右臀到达基准点的距离比值,构建人体目标的姿态评估模型。人体姿态呈现异常状态,则以该目标为中心点,查找邻域范围内目标,计算目标与中心目标的欧式距离,判断邻域目标与中心目标的相互关系,判断倒地事件是人为事件还是个人事件。本文对交通路口异常事件类型识别及相关技术进行了探索和研究,但仍存在以下不足有待进一步研究:1)在现有监控系统基础上所获得的监控视频,有很大一部分视频内容并不能使用深度学习的Faster-RCNN模型进行检测识别,尤其是监控视频模糊或监控目标小的情况下,识别更为困难,严重影响目标的检测识别结果;2)目标的低秩纹理方向特征受到目标整体影响的同时,还受到目标本身纹理的影响,如衣服、背包、光照。如何进一步选择和使用人体低秩纹理方向并用以人体行为描述,成为研究重点。3)目前本文只对交通路口群体异常事件和行人摔倒事件进行识别和分析,有待于对交通路口其他类型的异常事件进行识别和扩展。
俞先国[9](2018)在《基于飞行平台成像的运动目标检测与跟踪》文中进行了进一步梳理随着无人机、智能导弹等先进飞行平台的大规模部署,基于飞行平台成像的视觉应用技术越来越受到重视。其中运动目标检测与跟踪技术在人机交互、应急救援以及战场目标打击等应用中有着广泛的需求。飞行平台成像属于典型的全动态视频场景,需要信息处理算法能实时地完成图像处理并提供可靠的辅助决策信息。本文分别以视频卫星和无人机为两种典型的飞行成像平台,进行地面运动目标检测与跟踪算法研究。(1)针对视频卫星图像中的大量微小运动目标,提出了一种高效率的基于轨迹搜索的大量微小运动目标在线检测与跟踪算法。首先本文提出了一种帧间迭代轨迹搜索算法,能以极高的效率从初始检测结果中搜索可行的运动路径;然后提出了一种基于轨迹竞争的重叠目标轨迹筛选算法,在同一目标最多只能出现在一条真实轨迹中的假设下,从可行运动路径中筛选真实目标轨迹;本文通过引入了空目标状态来应对那些在初始检测结果中被漏检的目标,并相应地提出了一种递进的轨迹搜索策略;文中还提出了一种基于二分图匹配的多目标轨迹关联算法,能同时跟踪所有检测到的运动轨迹,完成对目标的长时跟踪,保持目标编号的连续性。最后本文提出了一种基于滑动时间窗口的实时微小目标检测算法,与已有方法相比,本文方法能够以非常高的计算效率来完成对图像中的未知个数的大量运动目标的检测,文中通过大量的实验证明了该算法具有参数依赖性低和抗干扰能力强的优点。(2)针对低空无人机视频中的运动目标检测问题,提出了一种可靠的基于几何约束的实时运动目标检测算法。本文研究了基于两帧图像的运动目标分割方法,首先提出了一种改进的基于密集光流的无人机运动目标分割算法,通过引入一种基于图模型的图像分割算法来有效地从光流场中寻找目标的模糊的边界;然后提出了了一种改进的基于帧间差分的无人机运动目标分割算法,在高效的图像配准算法的基础上通过融合帧间差分结果和图像分割结果来有效解决传统帧间差分方法无法恢复完整目标区域以及存在“鬼影”的问题。最后提出了一种基于几何约束信息的运动目标检测方法,本文在改进的帧间图像配准方法的基础上应用无人机场景内在的单应约束和极线约束信息实现了对运动像素的准确判断,并基于此实现了序列运动目标的快速可靠检测,实验结果显示该方法可以有效应对视差效应的干扰,并且具有较高的计算效率和较低的虚警率。(3)针对空中运动平台以及低分辨率成像条件下的运动目标跟踪问题,提出了一种基于密集结构学习的目标跟踪算法。针对已有算法在解决实际问题时面临的搜索范围小、鲁棒性差、计算效率低下等问题,本文提出了一种基于密集采样的在线结构学习算法,通过引入傅里叶技巧和优化学习算法,使得跟踪器的训练和检测过程具有极高的计算效率。然后提出了一种加权核函数,能够在不增加算法计算量的条件下提升跟踪器的鲁棒性。最后针对热红外成像条件下的目标跟踪问题,本文提出了一种非常有效的红外特征表示。实验结果显示本文方法在多个公开测试集上都达到了较高的性能指标,特别地,在一个红外目标跟踪测试集和一个无人机运动目标跟踪测试集上本文方法都表现出了当前的一流水准。
王爱丽[10](2016)在《基于计算机视觉的行人交通信息智能检测理论和关键技术研究》文中提出随着视频监控系统的普及和视频图像处理技术的进步,以计算机视觉技术为基础的智能交通系统应用研究越来越受到重视,它综合利用图像处理、模式识别、人工智能等技术对监控系统采集到的视频图像序列进行处理和分析,智能化地理解视频内容并做出处理,能处理诸如事故信息判断、行人和车辆分类、交通流参数检测、运动目标跟踪等各种问题,促使智能交通系统更加智能实用,并为交通管理与控制提供全面、实时的交通状态信息。因此,基于计算机视觉的交通信息检测的方法研究具有重要的理论价值和现实意义。尽管智能视频监控技术已经研究了很多年,但基于计算机视觉的智能化交通信息检测系统仍处于发展阶段,在某些关键技术环节尚需进一步研究。目前还没有一个标准的、健壮的、精确的、高性能的目标检测和跟踪方法,还不能实时、有效的采集行人交通数据,难以智能的分析和判断行人交通的运行规律,不能对交通环境进行有效的管理和控制。在此背景下,基于计算机视觉的交通信息检测领域的研究逐步展开,并展现出良好的应用前景。本论文基于国家高技术研究发展计划(863计划)和博士科研基金项目,对基于计算机视觉技术的智能交通系统的基本理论和关键技术展开研究,结合计算机视觉的前沿研究理论,在学习使用计算机视觉开发平台Matlab的基础上,以交通视频中行人为研究对象,针对运动目标的检测、提取、跟踪、识别及交通流参数的计算与分析等问题进行了探索和研究,为ITS的智能化提供技术支持。主要研究内容包括以下几个方面:(1)首先根据计算机视觉和交通信息智能检测相关理论知识,采用图像语义层次法对行人交通语义信息智能检测过程重新进行分层,将其分成底层视觉层、中层视觉层、高层视觉层和应用层,并对每层的功能进行定义;从交通信息系统研究领域及交通信息处理流程两方面归纳和设计交通信息智能检测关键技术结构,对本文应用到的交通信息采集技术和交通数字图像处理技术进行描述;综合应用智能视频监控相关技术,构建了交通信息智能监控系统的体系结构,搭建了交通信息智能监控系统硬件和软件平台,实现理论到实践的转化,为改善和提高交通视频监控能力提供了基础。(2)根据实际交通场景中获得可靠的背景图像是比较困难的问题,提出了一种融合光流速度场的自适应背景建模方法,把光流引入背景建模中,结合背景差分结果的并运算和“死角”灰度处理来实时更新背景,实现背景建模,该模型能够精确的提取到背景图像,有效的消除噪音问题:然后,在背景拟合的基础上,提出一种基于时域和空域信息的前景目标分割方法,采用相邻多帧时域变化和Canny边缘检测法得到初始检测掩模图像,有效的解决差值局部化和噪声问题;在提取空域信息时,引入二次重构和内外标记技术对梯度图像进行修正和分水岭变换,得到空域掩模图像,有效的提高空域分割精度,消除过分割现象;最后将时空分割结果进行融合和形态学修正,精确的提取出前景目标区域。(3)在运动目标检测部分,提出一种基于形态学连通域的行人检测和底层交通语义信息提取方法,采用形态学连通域识别法,根据连通域特征进行判别,删除不相关区域,提取出交通视频图像中运动目标个数,从而精确的提取出运动行人的底层交通语义信息,为后续工作提供数据支撑;针对遮挡状态下的行人运动特性,提出一种基于人头颜色模型和轮廓信息的行人检测方法,采用RGB和YCbCr颜色空间中的聚类情况和帧差运动信息,提取候选人头区域,利用Canny边缘检测和Hough变换进行人头定位,实现目标信息统计。(4)在运动目标跟踪部分,针对Mean Shift算法存在的问题,提出基于Mean Shift目标跟踪的改进算法。构建多线索信息融合的目标表观模型,融合行人外观、空间结构和运动等多线索信息描述目标,增强特征描述能力,提高跟踪精度;从背景和目标双重角度设定目标尺度变化区域判断准则,调整算法核窗口尺寸,克服跟踪中背景干扰;采用Bhattacharyya系数判别跟踪状态,针对遮挡丢失状态,提出一种基于四部搜索策略的行人遮挡处理方法,以重新捕获丢失目标。并基于改进的目标跟踪算法,对跟踪到的行人进行中层交通语义信息提取,包括行人位移、步行速度、加速度、轨迹等;在采集信息阶段,建立ROI区域和目标链,提出基于目标跟踪的行人计数和流量统计方法,获得ROI区域的人流信息。(5)在目标底层和中层交通语义信息提取的基础上,提出一种基于递阶遗传算法改进BP神经网络的行人识别方法,采用四级递阶染色体结构描述网络结构和参数,根据构建的HGA-BP单分类器来识别交通视频图像中运动目标的种类与数量;然后在已构建的HGA-BP单分类器基础上,基于“由粗到精”的识别思想进行级联识别,构建Cascade-HGA-BP组合分类器,在底层传递高层时,采用三分检测法,实现运动行人的最终分类识别。该方法在交通场景内行人、车辆等并存的情况下,对运动行人的识别取得了很好的效果。
二、图像特征检测与运动目标分割算法的研究和实现(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、图像特征检测与运动目标分割算法的研究和实现(论文提纲范文)
(1)道路运动目标检测和跟踪算法的改进与原型设计(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究历史与现状 |
1.2.1 运动目标检测的现状和发展 |
1.2.2 运动目标跟踪的现状和发展 |
1.3 本文的主要内容和贡献 |
1.4 本论文的结构安排 |
第二章 运动目标检测与跟踪相关技术及原理 |
2.1 特征角点检测算法 |
2.2 光流跟踪原理 |
2.2.1 光流法原理 |
2.2.2 Lucas-kanade光流法 |
2.3 图像分割 |
2.4 阈值分割算法 |
2.4.1 全局阈值分割法 |
2.4.2 直方图分割法 |
2.4.3 Otsu阈值分割 |
2.5 形态学处理 |
2.6 本章小结 |
第三章 光流场分割算法的设计与改进 |
3.1 图像预处理 |
3.1.1 图像ROI区域提取 |
3.1.2 图像灰度化和滤波处理 |
3.2 特征点检测以及光流场建立 |
3.2.1 分级特征点检测 |
3.2.2 基于金字塔LK光流法的光流场的建立 |
3.3 基于光流点特征的DBSCAN聚类分割算法改进 |
3.3.1 传统的相似性度量 |
3.3.2 改进的光流相似性度量 |
3.3.3 聚类分割算法过程 |
3.4 实验结果与分析 |
3.5 本章小结 |
第四章 道路运动目标检测跟踪算法的设计与改进 |
4.1 分块自适应阈值分割算法 |
4.1.1 图像分块 |
4.1.2 分块自适应阈值算法 |
4.2 运动三图融合 |
4.2.1 基于块内 Canny 边缘的图像分割 |
4.2.2 图像融合细节 |
4.3 基于Cam Shift和卡尔曼滤波的运动物体跟踪 |
4.3.1 经典跟踪算法 |
4.3.2 Cam Shift目标跟踪原理 |
4.3.3 卡尔曼滤波原理 |
4.3.4 卡尔曼跟踪器模型 |
4.4 实验结果与分析 |
4.4.1 实验环境配置 |
4.4.2 评估数据 |
4.4.3 系统评估指标 |
4.4.4 不同场景下的检测跟踪效果 |
4.4.5 与其他算法对比实验 |
4.5 本章小结 |
第五章 道路运动目标检测跟踪原型设计与实现 |
5.1 系统需求分析 |
5.1.1 问题描述 |
5.1.2 功能性需求 |
5.1.3 非功能性需求 |
5.2 系统设计 |
5.2.1 系统总体架构设计 |
5.2.2 系统功能模块设计 |
5.2.3 系统界面设计 |
5.3 系统实现 |
5.3.1 运动目标检测模块 |
5.3.2 运动目标跟踪模块 |
5.4 系统测试 |
5.4.1 功能测试 |
5.4.2 性能测试 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结工作 |
6.2 展望 |
致谢 |
参考文献 |
(2)视觉假体中视觉图像信息感知关键技术研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 视觉假体的研究 |
1.2.2 视觉图像信息处理的研究 |
1.2.3 视觉信息处理平台的研究 |
1.3 论文研究内容与结构 |
2 视觉假体中视觉图像信息处理 |
2.1 图像预处理 |
2.1.1 色彩转换 |
2.1.2 视角转换 |
2.1.3 图像增强 |
2.2 视觉图像复杂度分类 |
2.3 视觉图像信息处理 |
2.3.1 视觉图像信息处理策略 |
2.3.2 视觉场景中的目标检测 |
2.3.3 边缘检测 |
2.3.4 图像形态学处理 |
2.4 仿真视觉模型 |
2.5 本章小结 |
3 仿真视觉下显着目标检测与优化感知 |
3.1 显着目标检测算法 |
3.1.1 算法描述 |
3.1.2 超像素分割 |
3.1.3 第一级显着性计算 |
3.1.4 流形排序理论 |
3.1.5 第二级显着性计算 |
3.2 显着目标的分割 |
3.2.1 自适应阈值分割 |
3.2.2 Grabcut分割 |
3.3 仿真假体视觉下显着物体的优化感知 |
3.3.1 显着物体优化呈现策略 |
3.3.2 仿真视觉模型下的物体呈现 |
3.4 仿真实验 |
3.5 实验结果与分析 |
3.5.1 显着目标检测算法的结果 |
3.5.2 算法效率 |
3.5.3 显着图分割结果 |
3.5.4 显着物体识别结果 |
3.5.5 结果讨论 |
3.6 本章小结 |
4 复杂场景下显着目标检测与优化感知 |
4.1 基于深度学习的高效显着目标检测算法 |
4.1.1 算法描述 |
4.1.2 空洞卷积 |
4.1.3 显着目标检测网络 |
4.1.4 显着图的细化方法 |
4.1.5 网络实现细节 |
4.2 复杂场景下显着物体的优化感知 |
4.2.1 前景二值化与背景减弱优化处理策略 |
4.2.2 前景二值化与背景边缘化优化处理策略 |
4.2.3 仿真视觉的生成 |
4.3 实验结果与讨论 |
4.3.1 显着目标检测结果 |
4.3.2 细化方案的有效性 |
4.3.3 显着目标识别结果 |
4.4 本章小结 |
5 仿真视觉下运动目标检测与优化感知 |
5.1 静态场景下运动目标分割算法 |
5.1.1 算法描述 |
5.1.2 背景模型初始化 |
5.1.3 前景目标检测 |
5.1.4 背景模型的更新 |
5.2 高动态场景下运动目标检测算法 |
5.2.1 算法描述 |
5.2.2 光流场的计算 |
5.2.3 空时区域线索提取 |
5.2.4 空时区域提取 |
5.2.5 运动目标的分割 |
5.3 基于运动目标检测算法的运动物体优化感知 |
5.3.1 前景增强与背景减弱优化算法 |
5.3.2 前景边缘化与背景减弱优化算法 |
5.4 仿真实验 |
5.5 结果和讨论 |
5.5.1 静态场景下运动目标分割结果 |
5.5.2 高动态场景下运动目标分割结果 |
5.5.3 运动物体识别结果 |
5.6 本章小结 |
6 基于SoC的视觉假体图像信息处理平台 |
6.1 视觉图像信息处理平台 |
6.1.1 硬件处理平台的选择 |
6.1.2 系统平台的架构 |
6.1.3 算法的硬件设计 |
6.1.4 系统平台的构建 |
6.2 系统平台的验证 |
6.2.1 系统FPGA移植 |
6.2.2 算法的系统验证 |
6.2.3 算法平台处理效率 |
6.3 本章小结 |
7 总结与展望 |
7.1 工作总结 |
7.1.1 主要完成工作 |
7.1.2 创新点 |
7.2 展望 |
致谢 |
参考文献 |
攻读博士学位期间成果 |
(3)基于图像实例分割的动态SLAM方法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题研究背景、目的及意义 |
1.2 国内外研究现状 |
1.2.1 传统视觉SLAM技术研究现状 |
1.2.2 动态场景下的视觉SLAM技术研究现状 |
1.3 研究内容和章节安排 |
第2章 视觉SLAM算法基础框架 |
2.1 引言 |
2.2 特征提取与特征匹配 |
2.2.1 特征提取 |
2.2.2 特征匹配 |
2.3 运动估计 |
2.3.1 2D点到2D点求解:对极几何 |
2.3.2 3D点到2D点求解:PnP |
2.3.3 3D点到3D点求解:ICP |
2.4 基于非线性优化的后端优化 |
2.4.1 局部BA优化算法 |
2.4.2 位姿图优化 |
2.5 回环检测 |
2.5.1 建立词袋模型 |
2.5.2 计算相似度 |
2.5.3 判定标准 |
2.6 本章小结 |
第3章 一种改进的实时实例分割网络设计 |
3.1 引言 |
3.2 Mask R-CNN实例分割网络 |
3.3 YOLACT实例分割网络改进 |
3.3.1 分割掩码 |
3.3.2 主干检测器设计 |
3.3.3 NMS优化 |
3.4 实验分析 |
3.4.1 性能指标 |
3.4.2 实验对比 |
3.5 本章小结 |
第4章 基于动态对象分割的语义SLAM算法研究 |
4.1 引言 |
4.2 动态对象分割算法设计 |
4.2.1 基于光流法的特征点跟踪 |
4.2.2 基于多视图几何的动态点检测 |
4.2.3 动态对象分割算法设计 |
4.3 融合动态对象分割的改进ORB-SLAM2 算法设计 |
4.3.1 ORB-SLAM2 算法分析 |
4.3.2 改进ORB-SLAM2 算法设计 |
4.4 本章小结 |
第5章 动态SLAM系统搭建及实验分析 |
5.1 引言 |
5.2 动态SLAM系统实验平台搭建 |
5.2.1 搭建实验系统 |
5.2.2 实验平台 |
5.2.3 实验数据集 |
5.2.4 评价指标 |
5.3 动态对象分割实验 |
5.4 动态场景下的位姿估计实验 |
5.5 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表的论文和取得的科研成果 |
致谢 |
(4)无人机图像的多目标检测与识别(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 目标检测技术研究现状 |
1.2.2 目标识别的研究现状 |
1.3 主要研究内容 |
1.4 论文章节安排 |
2 KAZE特征算法分析与改进 |
2.1 KAZE特征检测算法 |
2.1.1 非线性扩散滤波 |
2.1.2 非线性尺度空间的计算 |
2.1.3 特征检测与描述 |
2.1.4 KAZE算法实验结果分析 |
2.2 KAZE特征算法的改进 |
2.2.1 特征空间的加速求解 |
2.2.2 二进制特征描述算子 |
2.2.3 基于网格邻域汉明距离比较的特征匹配 |
2.2.4 改进后KAZE算法结果分析 |
2.3 本章小结 |
3 基于改进KAZE算法的无人机目标检测 |
3.1 无人机参数说明及算法流程 |
3.1.1 无人机参数 |
3.1.2 本文算法流程 |
3.2 改进KAZE算法的目标检测 |
3.2.1 基于特征位移的摄像机运动补偿 |
3.2.2 运动目标分割 |
3.3 实验结果分析 |
3.4 本章小结 |
4 基于区域融合的目标识别 |
4.1 基于超像素分割的候选区域及融合 |
4.1.1 SLIC超像素分割算法 |
4.1.2 一种基于区域邻接图模式的区域融合 |
4.2 一种RGB-KAZE特征字典的目标识别 |
4.2.1 RGB-KAZE特征构建 |
4.2.2 构建空间金字塔匹配的字典 |
4.3 实验结果分析 |
4.3.1 候选目标定位质量 |
4.3.2 目标识别效果分析 |
4.4 本章小结 |
结论 |
致谢 |
参考文献 |
攻读学位期间取得的研究成果 |
(5)基于三维点云分析的智能汽车目标检测方法研究(论文提纲范文)
中文摘要 |
英文摘要 |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 论文主要研究工作 |
1.4 论文结构安排 |
2 地图构建与点云分析基础 |
2.1 双目立体视觉 |
2.2 相机位姿估计与地图构建原理 |
2.2.1 相机位姿估计 |
2.2.2 地图构建 |
2.2.3 地图表示 |
2.3 基于机器视觉的点云分析方法 |
2.3.1 点云获取 |
2.3.2 点云配准 |
2.3.3 点云分割 |
2.3.4 点云语义分割 |
2.4 本章小结 |
3 基于双目视觉特征匹配完成度的连续点云拼接方法 |
3.1 引言 |
3.2 算法框架 |
3.2.1 匹配得分最高的图像特征选取 |
3.2.2 端点消除法的点云拼接 |
3.2.3 逐点分类与统计的平面拟合 |
3.3 基于匹配完成度的点云拼接方法 |
3.4 算法实验 |
3.5 本章小结 |
4 基于推荐区域聚类与区域生长的点云分割与二维目标检测 |
4.1 引言 |
4.2 结合推荐区域目标聚类 |
4.2.1 基于DSO方法的场景点云获取 |
4.2.2 基于V-视差图的目标选取 |
4.2.3 基于场景流的目标选取 |
4.3 指定推荐区域初始点的区域生长点云分割 |
4.3.1 面向智能汽车的推荐区域目标点云聚类 |
4.3.2 基于八叉树的区域生长三维点云分割 |
4.3.3 三维框在图像中的表示 |
4.4 算法实验 |
4.5 本章小结 |
5 基于目标边缘导向的点云分割与三维目标检测 |
5.1 引言 |
5.2 结合边缘提取与立体像素的推荐区域选取 |
5.2.1 面向智能汽车的目标双边界区域判定方法 |
5.2.2 面向智能汽车的目标双边界区域稀疏重建 |
5.3 场景点云匹配与目标分割 |
5.3.1 基于特征跟踪的点云匹配 |
5.3.2 基于投影包络的快速点云分割 |
5.4 算法实验 |
5.5 本章小结 |
6 结论与展望 |
6.1 论文工作总结 |
6.2 下一步工作 |
致谢 |
参考文献 |
附录 |
A.作者在攻读学位期间发表的论文目录 |
B.作者在攻读学位期间参加的科研项目 |
(6)天基红外弱小目标图像检测技术研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题背景和意义 |
1.2 红外弱小目标检测技术的国内外现状 |
1.2.1 图像预处理研究现状 |
1.2.2 红外弱小目标检测研究现状 |
1.2.3 红外弱小目标跟踪现状 |
1.3 论文的研究目标和技术指标 |
1.4 本文的研究工作和章节安排 |
1.4.1 主要研究工作 |
1.4.2 章节安排 |
第2章 红外图像的特征研究 |
2.1 红外图像成像原理 |
2.2 目标特性分析 |
2.2.1 目标的几何特性 |
2.2.2 目标红外辐射特性 |
2.2.3 目标空间分布特性 |
2.2.4 目标的时域特性 |
2.3 背景特性分析 |
2.3.1 大气背景红外图像特性分析 |
2.3.2 深空背景红外图像特性分析 |
2.3.3 红外图像的噪声特性 |
2.4 主要技术指标分析 |
2.5 红外弱小目标检测难点 |
2.6 本章小结 |
第3章 复杂背景下的红外图像预处理算法研究 |
3.1 背景抑制原理 |
3.1.1 空间域图像预处理算法 |
3.1.2 变换域图像预处理算法 |
3.1.3 预处理算法小结 |
3.2 基于top-hat的 PM模型云背景下的预处理方法 |
3.2.1 PM模型算法简介 |
3.2.2 改进的PM模型背景抑制 |
3.2.3 基于top-hat的 PM模型背景抑制 |
3.3 深空背景下的红外弱小目标预处理方法 |
3.3.1 图像差分 |
3.3.2 空域滤波 |
3.4 本章小结 |
第4章 基于单帧图像的红外弱小目标检测算法研究 |
4.1 图像检测的基本理论 |
4.2 常用的图像分割方法 |
4.2.1 迭代法 |
4.2.2 类间最大方差 |
4.2.3 最大熵法 |
4.2.4 类间最大距离法 |
4.2.5 恒虚警率法 |
4.2.6 实验与小结 |
4.3 背景自适应的多特征融合红外弱小目标检测算法 |
4.3.1 背景自适应抑制 |
4.3.2 目标特性研究 |
4.3.3 融合检测 |
4.4 本章小结 |
第5章 基于多帧关联的红外弱小目标检测算法研究 |
5.1 常见的序列图像检测方法 |
5.1.1 DBT算法 |
5.1.2 TBD算法 |
5.2 DBT的主要算法 |
5.2.1 DBT原理 |
5.2.2 管道滤波 |
5.3 TBD的主要算法 |
5.3.1 三维匹配滤波 |
5.3.2 假设检验 |
5.3.3 动态规划 |
5.3.4 投影的方法 |
5.3.5 高阶相关法 |
5.4 一种改进的动态管道滤波方法 |
5.4.1 传统管道滤波算法的特点 |
5.4.2 改进的管道滤波算法 |
5.5 基于概率数据关联的目标跟踪 |
5.5.1 概率数据关联滤波 |
5.5.2 联合概率数据关联滤波 |
5.6 本章小结 |
第6章 实验验证与评估 |
6.1 评估方法 |
6.2 仿真验证与评估 |
6.2.1 仿真系统设计 |
6.2.2 仿真验证与评估 |
6.3 实验验证与评估 |
6.3.1 验证系统总体方案 |
6.3.2 验证与评估 |
6.4 本章小结 |
第7章 结论与展望 |
7.1 论文总结 |
7.2 论文创新点 |
7.3 工作展望 |
参考文献 |
致谢 |
作者简介及在学期间发表的学术论文与研究成果 |
(7)区域安防中图像目标检测方法研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 传统运动目标检测算法研究现状 |
1.3 传统行人检测算法研究现状 |
1.4 本论文结构安排 |
第二章 基于改进遗传算法的图像分割方法 |
2.1 引言 |
2.2 常用图像分割方法 |
2.2.1 基于阈值的图像分割法 |
2.2.2 基于区域的分割方法 |
2.2.3 基于边缘的图像分割方法 |
2.3 遗传算法 |
2.3.1 遗传算法原理概述 |
2.3.2 遗传算法基本步骤 |
2.4 基于改进遗传算法的图像分割方法 |
2.4.1 算法基本思想 |
2.4.2 图像预处理及种群初始化 |
2.4.3 适应度函数的构建 |
2.4.4 迭代运算与图像分割 |
2.5 实验与分析 |
2.5.1 实验环境 |
2.5.2 评价指标 |
2.5.3 实验结果与分析 |
2.6 本章小结 |
第三章 基于图像分割的Vibe运动目标检测算法 |
3.1 引言 |
3.2 常用运动目标检测算法 |
3.2.1 背景差分法与帧间差分法 |
3.2.2 混合高斯建模(GMM) |
3.2.3 光流法 |
3.3 基于图像分割的Vibe运动目标检测算法理论基础 |
3.3.1 Vibe运动目标检测算法基础理论 |
3.3.2“鬼影”的产生 |
3.4 基于图像分割的Vibe运动目标检测算法实现 |
3.5 实验与分析 |
3.5.1 实验环境 |
3.5.2 评价指标 |
3.5.3 实验结果与分析 |
3.6 本章小结 |
第四章 基于S-HOG特征的行人检测算法 |
4.1 引言 |
4.2 常用的特征描述 |
4.2.1 Harr-like特征 |
4.2.2 LBP特征 |
4.2.3 HOG特征 |
4.3 基于S-HOG特征的行人检测算法理论基础 |
4.3.1 HOG特征提取算法 |
4.3.2 SIFT特征提取算法 |
4.3.3 支持向量机SVM基本原理 |
4.3.4 主成分分析方法PCA基本原理 |
4.4 基于S-HOG特征的行人检测算法实现 |
4.5 实验与分析 |
4.5.1 实验环境 |
4.5.2 评价指标 |
4.5.3 实验结果与分析 |
4.6 本章小结 |
第五章 总结与展望 |
5.1 论文工作总结 |
5.2 未来工作与展望 |
参考文献 |
致谢 |
作者简介 |
(8)交通路口异常事件检测及识别技术研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景和意义 |
1.2 交通异常事件研究现状 |
1.2.1 车辆异常事件研究现状 |
1.2.2 群体异常事件研究现状 |
1.3 交通路口异常事件检测识别相关技术 |
1.3.1 交通视频的对象检测与识别技术 |
1.3.2 视频内目标分割技术 |
1.3.3 视频内目标描述技术 |
1.3.4 视频内目标相互关系识别技术 |
1.4 研究内容与创新点 |
1.4.1 研究内容 |
1.4.2 创新点 |
1.5 本文组织结构 |
2 基于Faster-RCNN模型目标检测识别及处理 |
2.1 运动目标检测方法及现状 |
2.1.1 帧间差分法和背景差分法 |
2.1.2 光流法 |
2.1.3 深度学习检测法 |
2.2 图像人体目标识别及预处理 |
2.2.1 基于Faster-RCNN的目标检测识别 |
2.2.2 FSRCNN超分辨率目标重建 |
2.3 实验及分析 |
2.4 本章小结 |
3 基于全局显着性的双窗Fisher自适应目标分割方法 |
3.1 目标分割理论及相关工作 |
3.1.1 阈值分割法 |
3.1.2 聚类分割法 |
3.1.3 语义分割法 |
3.2 目标显着性检测 |
3.2.1 显着性检测研究发展与现状 |
3.2.2 HC显着性检测方法 |
3.3 图像阈值自适应分割算法 |
3.2.1 图像中的Fisher判定准则 |
3.2.2 双窗Fisher方法 |
3.4 实验及分析 |
3.5 本章小结 |
4 基于人体低秩纹理方向的群体异动事件识别 |
4.1 人体行为识别研究基础 |
4.1.1 引言 |
4.1.2 研究现状 |
4.2 人体行为描述与群体异常识别 |
4.2.1 目标低秩纹理方向 |
4.2.2 人群异动事件模型构建 |
4.2.3 算法描述 |
4.3 实验及分析 |
4.4 本章小结 |
5 基于人体骨骼关键点信息熵关系姿态估计的倒地事件识别 |
5.1 姿态估计研究概述及现状 |
5.1.1 引言 |
5.1.2 研究现状 |
5.2 姿态估计与倒地异常识别 |
5.2.1 关节点检测 |
5.2.2 姿态模型构建 |
5.2.3 基于姿态评估的异常事件模型 |
5.3 实验与分析 |
5.4 本章小结 |
6 总结和展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简介 |
(9)基于飞行平台成像的运动目标检测与跟踪(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 问题介绍以及领域研究概况 |
1.2.1 同时检测和跟踪多个微小运动目标 |
1.2.2 基于无人机航拍图像的运动目标检测与跟踪 |
1.2.3 视觉目标跟踪 |
1.3 论文主要内容与贡献 |
1.3.1 论文主要内容 |
1.3.2 论文的贡献 |
第二章 基于轨迹搜索的微小运动目标在线检测与跟踪 |
2.1 引言 |
2.2 一种高效的轨迹检测算法 |
2.2.1 基于剪枝策略的轨迹搜索算法 |
2.2.2 基于帧间迭代的快速轨迹生长算法 |
2.2.3 基于非极大值抑制的轨迹竞争算法 |
2.2.4 基于空目标状态表示和轨迹搜索的漏检应对方法 |
2.3 微小运动目标在线检测与跟踪 |
2.3.1 基于二分图匹配的多目标轨迹跟踪算法 |
2.3.2 基于轨迹搜索的小目标在线检测与跟踪流程 |
2.3.3 基于增量直线拟合的数据滤波方法 |
2.4 标准性能实验 |
2.4.1 性能度量 |
2.4.2 与经典算法对比 |
2.4.3 噪声干扰条件下的大量小目标检测 |
2.5 视频卫星图像中的运动目标检测 |
2.5.1 静态背景下的运动目标检测 |
2.5.2 动态背景下的运动目标检测 |
2.6 模拟靶场观测图像中的运动目标检测 |
2.7 本章小结 |
第三章 基于两帧图像的无人机视觉运动目标检测 |
3.1 引言 |
3.2 基于密集光流的运动目标检测 |
3.2.1 无人机场景中的光流 |
3.2.2 基于图模型的光流场分割算法 |
3.2.3 实验及结果分析 |
3.3 基于帧间差分的运动目标检测 |
3.3.1 基于网格角点和稀疏光流的无人机图像快速配准方法 |
3.3.2 基于图像分割的运动目标精确提取方法 |
3.3.3 实验及结果分析 |
3.4 基于几何约束的实时运动目标检测 |
3.4.1 极线约束 |
3.4.2 基于两帧图像和几何约束的快速可靠运动目标检测方法 |
3.4.3 实验及结果分析 |
3.5 本章小结 |
第四章 基于密集结构学习的视觉目标跟踪 |
4.1 引言 |
4.2 基于密集结构学习的目标跟踪算法 |
4.2.1 使用结构输出支持矢量机进行目标跟踪 |
4.2.2 密集采样条件下的高效率在线目标跟踪 |
4.2.3 具体实现 |
4.2.4 加权核函数 |
4.3 更适合红外目标跟踪的特征表示 |
4.4 尺度自适应目标跟踪算法 |
4.5 实验 |
4.5.1 测试集与性能度量 |
4.5.2 线性核与加权核性能对比实验 |
4.5.3 不同特征表示性能对比实验 |
4.5.4 与经典算法在红外目标跟踪测试集上的对比实验 |
4.5.5 在无人机拍摄视频上的性能对比实验 |
4.5.6 在通用视觉跟踪测试集上的性能对比实验 |
4.6 本章小结 |
第五章 总结与展望 |
5.1 论文工作总结 |
5.2 未来工作展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(10)基于计算机视觉的行人交通信息智能检测理论和关键技术研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景 |
1.2 研究目的及意义 |
1.3 国内外研究现状 |
1.3.1 交通信息采集研究现状 |
1.3.2 基于计算机视觉的行人检测方法研究现状 |
1.3.3 基于计算机视觉的行人跟踪方法研究现状 |
1.3.4 基于计算机视觉的行人识别方法研究现状 |
1.4 论文的主要研究方法和内容 |
1.4.1 研究技术路线 |
1.4.2 主要研究内容 |
1.5 小结 |
2 基于计算机视觉的交通信息检测理论与技术研究 |
2.1 基于计算机视觉的交通信息检测理论基础 |
2.1.1 计算机视觉基础知识 |
2.1.2 基于计算机视觉的交通信息检测过程分层 |
2.1.3 行人交通语义信息定义 |
2.2 基于计算机视觉的交通信息检测关键技术 |
2.2.1 交通信息检测技术 |
2.2.2 数字图像处理技术 |
2.3 交通信息智能监控系统构建 |
2.3.1 交通信息智能监控体系结构设计 |
2.3.2 交通信息智能监控系统软件结构设计 |
2.4 小结 |
3 交通场景背景提取与目标分割方法研究 |
3.1 交通视频图像背景分析与建模 |
3.1.1 背景建模理论分析 |
3.1.2 融合光流速度场的自适应背景建模 |
3.1.3 融合光流速度场的自适应背景建模算法 |
3.1.4 算例分析 |
3.2 运动目标分割分析与设计 |
3.2.1 目标分割理论分析 |
3.2.2 目标分割模型算法设计 |
3.3 运动目标分割建模 |
3.3.1 融合边缘信息的时域分割 |
3.3.2 基于二次重构和内外标记的分水岭空域分割 |
3.3.3 基于时域和空域信息的目标分割算法 |
3.3.4 算例分析 |
3.4 小结 |
4 行人智能检测与底层交通语义信息提取方法研究 |
4.1 行人检测模型分析与设计 |
4.2 行人检测和底层交通语义信息提取 |
4.2.1 基于形态学和连通域的行人检测 |
4.2.2 底层交通语义信息检测 |
4.3 遮挡状态下行人检测 |
4.3.1 遮挡状态下的行人检测方法分析 |
4.3.2 基于人头颜色空间和轮廓形状的行人检测 |
4.3.3 人数统计 |
4.4 实验结果与分析 |
4.4.1 行人检测实验1 |
4.4.2 行人检测实验2 |
4.5 小结 |
5 行人智能跟踪与中层交通语义信息提取方法研究 |
5.1 目标跟踪理论分析 |
5.1.1 背景介绍 |
5.1.2 Mean Shift算法原理介绍 |
5.2 改进Mean-Shift行人跟踪算法 |
5.2.1 自动选择跟踪目标模板 |
5.2.2 多线索信息融合的目标跟踪建模 |
5.2.3 目标尺度变化的自适应调整 |
5.2.4 目标遮挡和搜索策略设置 |
5.2.5 目标跟踪算法设计 |
5.3 中层交通语义信息提取 |
5.3.1 行人交通参数提取 |
5.3.2 目标链建立 |
5.4 基于多目标跟踪的行人统计 |
5.4.1 检测区域的建立与设置 |
5.4.2 行人流量统计 |
5.4.3 行人计数 |
5.5 实验结果与分析 |
5.5.1 多线索信息融合的目标表观建模实验 |
5.5.2 单目标跟踪实验 |
5.5.3 多目标跟踪实验 |
5.5.4 中层交通语义信息提取实验 |
5.6 小结 |
6 行人目标智能识别与检索方法研究 |
6.1 目标识别理论分析 |
6.1.1 背景介绍 |
6.1.2 BP神经网络基础知识 |
6.1.3 遗传算法基础理论 |
6.2 目标分类识别分析与建模 |
6.2.1 目标输入特征设置 |
6.2.2 基于HGA-BP网络的识别分类器构建 |
6.2.3 基于HGA-BP网络的行人识别算法 |
6.3 基于级联分类器结构的行人层级识别 |
6.3.1 Cascade级联分类器 |
6.3.2 基于行人识别的Cascade-HGA-BP分类器构建 |
6.3.3 基于Cascade-HGA-BP分类器行人识别算法 |
6.4 实验结果与分析 |
6.4.1 样本集 |
6.4.2 分类器训练 |
6.4.3 目标识别和人数统计 |
6.5 小结 |
7 总结与展望 |
7.1 主要研究成果 |
7.2 主要创新点 |
7.3 研究展望 |
参考文献 |
作者简历及攻读博士学位期间取得的研究成果 |
学位论文数据集 |
四、图像特征检测与运动目标分割算法的研究和实现(论文参考文献)
- [1]道路运动目标检测和跟踪算法的改进与原型设计[D]. 庄漫. 电子科技大学, 2021(01)
- [2]视觉假体中视觉图像信息感知关键技术研究[D]. 郭飞. 西安理工大学, 2020(01)
- [3]基于图像实例分割的动态SLAM方法研究[D]. 刘普强. 哈尔滨工程大学, 2020(05)
- [4]无人机图像的多目标检测与识别[D]. 罗宇. 西南科技大学, 2020(08)
- [5]基于三维点云分析的智能汽车目标检测方法研究[D]. 胡方超. 重庆邮电大学, 2019(01)
- [6]天基红外弱小目标图像检测技术研究[D]. 陆福星. 中国科学院大学(中国科学院上海技术物理研究所), 2019(03)
- [7]区域安防中图像目标检测方法研究[D]. 刘思成. 西安电子科技大学, 2019(02)
- [8]交通路口异常事件检测及识别技术研究[D]. 李孟军. 中国矿业大学(北京), 2019(12)
- [9]基于飞行平台成像的运动目标检测与跟踪[D]. 俞先国. 国防科技大学, 2018(02)
- [10]基于计算机视觉的行人交通信息智能检测理论和关键技术研究[D]. 王爱丽. 北京交通大学, 2016(12)