首页 > 文章中心 > 计算机视觉应用

计算机视觉应用

开篇:润墨网以专业的文秘视角,为您筛选了八篇计算机视觉应用范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

计算机视觉应用范文第1篇

关键词:计算机视觉技术 铁路检测 应用

中图分类号:TP391 文献标识码:A 文章编号:1007-3973(2012)002-075-03

1 前言

自1825年世界第一条铁路在英国出现以来,铁路已经成为人们不可或缺的交通工具,越来越多的人在使用铁路出行,由于近年来铁路事故频频发生,促使了计算机视觉技术在铁路检测上的广泛使用并大力发展。

传统的铁路检测一直是靠人工和静态检测,这种检测缺乏实时性和准确性,并且效率低下,根本无法满足铁路的发展。这就要求研究一种新的检测方法来适应环境的发展,人们就试图将计算机视觉技术应用于铁路检测上,并取得了很好的效果。将计算机视觉技术应用在铁路检测上显著提高了铁路检测的实时性、准确性,有效的减轻了人工检测中工作条件恶劣,工作量大等缺点。它能在列车行驶的过程中就能对铁路和列车状况进行检测,并及时的做出预警,防止安全事故的发生。目前有关铁路检测主要集中在铁路信号检测、轨道检测、接触网检测、电力机车检测及站台环境监测等五个方面。

2 计算机视觉技术

计算机视觉,也称机器视觉。它是利用一个代替人眼的图像传感器获取物体的图像,将图像转换成数字图像,并利用计算机模拟人的判别准则去理解和识别图像,达到分析图像和作出结论的目的。

计算机视觉是多学科的交叉和结合,涉及到数学、光学、人工智能、神经生物学、心理物理学、计算机科学、图像处理、图像理解、模式识别等多个领域。计算机视觉已有多年的发展历程。随着计算机、控制理论、模式识别、人工智能和生物技术的发展,计算机视觉在机器人、工业检测、物体识别的应用越来越广,研究方向也从二维到三维,从串行到并行,从直接依赖于输入信号的低层处理到依赖于特征、结构、关系和知识的高层处理。

一般的计算机视觉系统是有CCD(电荷耦合器件)摄像机、装备有图像采集板的计算机、光照系统以及专用图像处理软件等组成。CCD摄像机将所要研究的对象和背景以图像的形式记录下来,这其实是一个光电传感器,将光学信号转成电信号,图像采集板把采集的电信号转为数字信号,即数字化,一般情况下在摄取图像时都需要一个照明系统提供光照,然后再用专用的图像处理软件对图像进行处理,输出分析结果。

3 计算机视觉技术在铁路信号中的应用

铁路信号灯和现在的交通公路上的红绿灯是一个功能,但铁路和公路不同,铁路有限定的道路,列车必须在限定的股道上行驶,所以一旦与其他车辆相遇的话根本没有办法避让,如果发生车祸将会对国家和人民的生命和财产造成严重的损失,因此列车必须严格按照信号灯的指示行驶。

铁路信号灯识别主要是利用了信号灯在不同情况下会发出特定色彩光的特点。文献[1]在HSV空间中对S分量图像边缘检测和膨胀等,结合各种信号灯色调H分量的取值范围得到信号灯区域,然后多次腐蚀直到消除孤立点得到信号灯的边缘,最后填充信号灯区域,从而实现了信号灯的识别。在文献[2]也与此类似。文献[3]将彩色图像由RGB模式转化为HSI模式,用彩色特征聚类分析法来对图像进行分割,文中提出了基于颜色和形状相结合的复杂环境中目标检测与识别方法,用Hough变化来提取目标边界,从而提取出特定目标,而后得到指示灯区域所有像素的H,S统计值确定信号灯的颜色。在文献[4]提出一种基于改进的Hough变化的吊车信号灯识别算法。Roberto将摄取的图片转换到HIS颜色空间,用基于形状特征和模板匹配的方法探测到相关的铁路标志而放弃无关的基础设施。

为了部分消除因为光照条件、背景和拍摄角度对目标识别的影响,文献[5]提出使用一种利用sift特征的方法,它首先建立已知样本模型的特征集,然后将视频流每帧灰度图像的sift特征与之比较,从而实现对目标的检测或跟踪。实验表明该方法不仅能避免目标的错误识别,而且也明显优于基于边缘检测的算法,在识别准确率上达到了90%。

4 计算机视觉技术在轨道检测中的应用

随着世界铁路运营速度的不断提高,列车在行驶时对轨道的撞击、摩擦加剧,这就会造成轨道的变形、零件松动、磨损乃至缺失等,这些都会对列车的安全性造成严重影响,极有可能会造成铁路安全事故的发生。因此轨道设备具备良好的状态是铁路运输安全的重要保证。

随着电子技术和检测技术的发展,轨道检测技术也经历了翻天覆地的变化,其中也有不少研究机构将计算机视觉技术应用于轨道检测上,且取得了若干有效的检测方法。

轨道表面缺陷对列车行驶的质量和铁路系统的安全性会造成严重的影响,文献[7]提出了一种轨道表面缺陷检测的实时视觉检测系统。利用跟踪提取算法分割出轨道的灰度图像,然后用局部归一化法增强轨道图像的对比度,最后用基于投影轮廓的缺陷定位法检测缺陷。该算法对噪声有较强的鲁棒性和计算速度快,在一定程度上克服了光照不均和轨道表面反射性质不同对图像的影响,但对局部归一化过程中参数的选择有待进一步研究,以使该系统有更强的鲁棒性。该系统在216km/h速度下能进行实时检测,但随着检测速度的提高检测的准确度会明显下降且缺乏实时性。

文献[8]利用一排结构光视觉传感器,将钢轨轮廓的大圆周和小圆周的中心作为检查点。首先结构光视觉传感器拍摄铁轨侧面并且将其标记 在参考坐标帧中,最后通过比较测量的钢轨轮廓与参考轮廓的比较计算出铁轨磨损程度。该方法简单快速精确且不需要特殊的图像处理设备,在列车较高速度时仍然能达到良好效果。

5 计算机视觉技术在接触网检测中的应用

接触网是沿铁路线上空架设的向电力机车供电的特殊形式的输电线路。其由接触悬挂、支持装置、定位装置、支柱与基础几部分组成。它是轨道交通的主要组成部分,主要为机车提供动力,接触网的连接件由于受外界因素的影响容易产生过热现象,严重时会导致供电中断,引发列车停运事故。

我国的计算机视觉技术的接触网检测系统是基于德国相关技术而建立起来的,目前基于计算机视觉技术的接触网磨耗检测主要有两种方案:(1)基于镜面反射,激光照射接触线,线性CCD照相机捕获反射图像;(2)基于漫反射原理和CMOS(互补金属氧化物半导体)照相机。由于长期的频繁摩擦,接触网与受电弓接触部分很少被空气氧化,所以用光进行照射时该部分光反射率明显高于其他部分,因此这也为计算机视觉技术用于接触网检测提供了可能。

基于机器视觉的接触网检测系统主要是建立在图像识别和图像处理等视觉技术基础之上的,检测的内容涵盖接触网的所有基本几何参数。随着铁路的发展,原有的检测系统已经暴露出了一些问题,已无法满足需求,所以研究人员在系统硬件设备不变的情况下提出了许多改进的算法,如文献[9]针对现行的接触网定位器倾斜度检测方法效率低下、精确度不高的缺点,提出了一种基于计算机视觉的接触网定位器倾斜度自动测量装置,应用图像分割、剔除干扰线、图像细化等算法,对采集的图像进行处理,然后利用改进的霍夫(Hough)变换检测细化后的图像,对相邻的特征像素点进行聚类并感知编组,最后用随机Hough变换使感知编组后的每条线段更接近直线,进而计算装置中定位器的倾斜度,实验证明该算法精度高、速度快。

6 计算机视觉技术在电力机车检测中的应用

在列车的行进过程中,机车车轮与钢轨接触面不断发生摩擦,也就是轮缘与踏面的摩擦。从而会造成踏面的擦伤或剥离,而剥离会严重影响列车运行的安全性和平稳性以及轨道设施的使用寿命,因此需要对轮缘进行定期的检测和维修。

传统的检测方法需要人工逐项检测,存在费时费力、工作量大、工作环境差、效率低等缺点,所以人们就提出了一种基于计算机视觉技术的检测技术,该技术是一种非接触式检测方法,它能检测出所有关于火车轮缘轮廓的几何参数,从而计算出火车轮缘的磨损情况。这种检测方法检测速度快、准确率高且大大减轻了劳动强度,在实验中取得了满意的效果,并且在实际检测中也得到了广泛的应用。

文献[10]中研发设计了一种利用CCD成像测量技术、图像处理理论和计算机控制等相关技术,提出了一种非接触式的在线测量系统。采用二元多项式方法对由于硬件装置引起的误差的图像进行几何校正,用统计均值法对图像进行分割,从而求出车轮踏面的各项参数,通过在实验室对标准物进行测试实验而得到的测量数据结果进行分析而得出。此系统能够完成对火车轮对几何参数的测量,并且可得到相对准确的测量结果。

为了解决检测轮缘高度和宽度存在精度难以保证及稳定性不高的问题,文献[11]提出了一种基于三角法测量的在线监测系统,该系统由CCD高速摄像机和结构光发射器完成数据的采集,然后利用三角测量原理导出测量模型和计算模型,根据轮缘高度和宽度的定义完成对高度和宽度的测量,最终对轮缘磨损程度进行量化,实验表明该算法测量精度高,结果稳定可靠。

7 计算机视觉技术在站台环境监测中的应用

近年来铁路交通事业发展迅速,铁路客流量也不断增大,如中国每年的春运期间都有上亿人次通过火车返乡,各种危害乘客安全的事故也时有发生,因此世界各国特别是中国站台监控就显得越来越重要,目前的站台监控主要是依靠安装在各个角落的闭路电视或专业技术人员,这不仅需要专业技术知识还需要大量的人力物力。随着计算机、图像处理等技术的快速发展,对站台的自动监控也逐渐成为发展趋势。

近年来人们做了许多关于站台人群检测的研究,这些研究大都使用铁路站台中的闭路电视(CCTV)系统,在现代的CCTV系统中基本上使用的是数字化图像,在人群监测过程中大量使用了数字图像处理技术,如边缘检测、细化、像素计算等,通过图像的处理可以轻易的得到想要的结果。

文献[12]仍采用原有的CCTV监控系统拍摄的灰度图像作为处理对象,利用基于视觉的经过最小二乘法和全局搜索的混合算法训练的工业的额神经网络来估算站台的拥挤程度,该系统在实际的运行中获得了较高的精确度,虽然不能计算人数但却能实时的预测人群的密度。

文献[13]所设计的系统就较为复杂,它利用多台摄像头对站台进行检测。首先判断站台上列车的四种状态,如:没有列车、有列车、列车正在出站、列车正在入站等,然后对物体或行人检测及跟踪,最后对所检测的结果综合分析,做出合理的预警或警告。

8 计算机视觉技术在铁路检测上的发展趋势

随着计算机视觉技术的铁路检测中的应用越来越广泛和深入,并且随着计算机视觉技术等关键技术的不断发展,计算机视觉技术在铁路检测上应用发挥更大的作用,它就目前而言在铁路检测的应用上仍然存在技术难题需要研究:

计算机视觉应用范文第2篇

一、计算机视觉检测技术含义

计算机的视觉又叫做机器视觉,通过利用计算机或者是其他的一些机械设备来帮助人们视线事物到图片的过程,从而进行三维世界的感知活动。计算机的快速发展,离不开神经心理学,心理学和认知科学方面的研究和发展,计算机视觉检测技术的发展方向就是对周围的三维空间进行感知和分析。一旦能够拥有这种能力,计算机不仅能感知到周围的总体环境,而且,还能够具有对物体进行描述,识别理解和储存的能力。

二、计算机视觉检测的基本原理

要实现人工智能对视觉的计算机处理是很重要的方面在计算机视觉应用领域中如果要让我们的计算机明白图像的信息就必须经过一系列的处理过程―――数字图像处理.数字图像的处理包括5个步骤:图像预处理(去除噪声)、分割处理分割后区域、测量、图像判读、图像技术.根据抽象程度和处理方法的不同图像技术可分为三个层次:图像处理、图像分析和图像理解.这三个层次的有机结合也称为图像工程.而计算机视觉(Computer vision)则是用计算机实现人的视觉功能对客观世界三维场景的感知、识别和理解.视觉检测按其所处理的数据类型又大致可分为二值图像、灰度图像、彩色图像和深度图像的视觉检测.另外还有X射线检测、超声波检测和红外线检测。

作为新兴检测技术计算机视觉检测充分利用了计算机视觉研究成果采用像传感器来实现对被测物体的尺寸及空间位置的三维测量能较好地满足现代制造业的发展需求.与一般意义上的图像处理相比计算机视觉检测更强调精度、速度和无损性以及工业现场环境下的可靠性.例如基于三角法的主动视觉测量理具有抗干扰能力强、效率高、精度合适等优点非常适合制造业生产现场的在线、非接触产品检测及生产监控.对人类视觉感知能力的计算机模拟促进了计算机视觉技术的产生和发展制造业上获取这些信息的目的有:(1)计算出观察点到目标物体的距离;(2)得出观察点到目标物体的运动参数;(3)甚至可以判断出目标物体的内部特性;(4)推断出目标物体的表面特征有时要求形成立体视觉。

三、亚像素检测技术

随着工业检测等应用对精度要求的不断提高,像素级精度已经不能满足实际检测的要求,因此需要更高精度的边缘提取算法,即亚像素算法。亚像素级精度的算法是在经典算法的基础上发展起来的,这些算法一般需要先用经典算法找出边缘像素的位置,然后使用周围像素的灰度值作为判断的补充信息,利用插值、拟合等方法,使边缘定位于更加精确的位置。现在的亚像素提取算法很多,如重心法、概率论法、解调测量法、多项式插值法、滤波重建法、矩法等。由于这些算法的精度、抗噪声能力和运算量各不相同,他们的应用场合也是各不相同的。

边缘是图像的基本特征,所谓边缘是指图像中灰度存在阶跃或尖顶状变化的像素的集合,边缘广泛存在于物体与物体、物体与背景之间。图像测量是通过处理被测物体图像中的边缘而获得物体的几何参数的过程,边缘的定位精度直接影响最终的测量结果。因此,图像边缘提取方法是检测的基础和关键之一。在视觉测量领域中,早期使用的都是像素级边缘检测方法,例如常用的梯度算子、Lapacian算子和门式算子等。以上的边缘检测方法的精度可以达到像素级精度,即可以判断出边缘位于某个像素内,但不能确定边缘在该像素内的更精确的位置。如果一个像素对应的实际长度较大,就会产生较大的误差,传统的整像素边缘检测方法就不再适用。

四、计算机视觉检测技术在机加工零件检测中的应用要素与过程

(一)曲阵CCD相机

面阵CCD是本项目图像采集系统中的主要设备之一,其主要功能是采集实验图像。该CCD相机主要由CCD感光芯片、驱动电路、信号处理路、电子接口电路和光学机械接口等构成。

(二)工业定焦镜头

在图像测量系统中,镜头的主要作用是将目标聚焦在图像传感器的光敏面上。镜头的质量直接影响到图像测量系统的整体性能,合理选择并安装光学镜头是图像测量系统设计的重要环节。

(三)数字图像采集卡

随着数字信号处理技术和嵌入式处理器技术在图像采集卡中的应用,使得图像采集卡向高速度、多功能和模块化方向不断发展。这类图像采集卡不仅具有高速图像采集功能,同时还具备部分图像处理功能,因此又可以称之为图像处理卡。

(四)标定板

为提高测量精度,需要进行摄像机标定。标定过程中,采用NANO公司的CBC75mm}.0型高精度标定板,外形尺寸为75mmx75mmx3.0mm,图形为棋盘格,其尺寸为2.0mmx2.0mm,精度为1级,即图形尺寸精度与图形位置精度为。

(五)背光源

背光方式只显示不透明物体的轮廓,所以这种方式用于被测物需要的信息可以从其轮廓得到的场合。因此,为精确提取轴的图像中的边缘特征,需采用背光源。为使图像边缘更锐利,光源颜色选择红色。

五、结语

随着计算机技术和光电技术的发展,已经出现了一种新的检测技术―基于计算机视觉的检测技术,利用CCD摄像机作为图像传感器,综合运用图像处理等技术进行非接触测量的方法,被广泛地应用于零件尺寸的精密测量中。本文以面阵CCD为传感器,研究了零件在线测量的方法,实现了零件尺寸的图像边缘亚像素定位测量,对面阵CCD在高精度测量方面的应用作了进一步的探索和研究,为面阵CCD在复杂零件尺寸高精度测量的实现打下了基础。

【参考文献】

计算机视觉应用范文第3篇

关键词:双目计算机视觉 深度信息 自适应 光照变化 视频监控

1、引 言

面对日益复杂的社会和政治环境,国家安全、社会安全、个人人生安全和财产安全等都面临着不同程度的威胁,都需要各种安全保护措施,在众多场所建立切实有效的安保措施,成为一个迫切的课题。本文提出了一种基于双目计算机视觉的自适应识别算法,将该算法应用于现有的监控系统,并赋予监控终端智能性,不仅使其脱离人而具有独立智能、自主判断的能力,而且使得视频监控系统在安防方面的作用大大提高。

在现有的背景建模方法中,大多对于背景象素点的亮度值,例如最小亮度值、最大亮度值和最大亮度差值[ 1 ] ,或是对颜色信息进行建模[ 2 ] 。对于背景的更新,一般使用自适应滤波器对像素的统计特性进行递归更新,为了考虑到噪声的影响,文献[ 3 ]提出了Kalman滤波器的方法,该文认为系统的最优信息可通过估计获得。考虑到环境的动态缓慢改变,文献[ 4 ]利用统计模型给背景建模,即由一个时域滤波器保留着一个序列均值和一个标准偏差,并通过滤波过程统计值随时间改变来反映环境的动态特性。另外有一些方法解决了光照渐变等影响[ 5~7 ] ,但计算较复杂。

2、双目计算机视觉深度算法

基于实际应用考虑,摄像头的数量关系着成本和计算量,所以选择支持双摄像头(双目视觉)的算法是最合适的。在支持双目视觉的算法中,Princeton NEC research institute 基于最大流算法(maximum2flow)的计算机视觉算法( Stereo2MF)在深度效果平滑性上做得较好[ 8, 9 ] ,适用于监控区域深度计算的应用背景。但原有算法所需的计算量和计算过程中的暂存数据量是较大的,虽然支持计算量的削减,但只是机械地在一块区域中选择中心点来进行计算,这样计算的结果会因选择的机械性,而出现大量的“伪点”,这些伪点错误地表现了该区域的平均深度信息。本文采用统计平均值选取计算点,通过距离因子的Gauss分布将块内其他点的值融合计算,从而使得计算出的值较准确的代表了这一块内的大致深度分布。

m, n分别是图像的长和宽所包含的像素点个数,M、N 表示像素点的横纵坐标, .d 是块内深度统计平均值, dM, N为计算点的深度值, q为距离因子, dB是计算所得的块深度代表值。图1为改进后双目视觉深度算法与原算法识别效果比较。由图1可以明显看出,修改后的算法效果在细节表现、平滑性、伪点减少上均有明显改善,而且深度计算精确度能够完全满足视频

图1 改进后双目视觉深度算法与原算法识别效果比较Fig. 1Effect comparison after algorithm modification

度计算精确度能够完全满足视频监控应用的需要。

3、自适应识别算法

对于一个固定的场景,场景各像素点的深度值是符合一个随机概率分布。以某一均值为基线,在其附近做不超过某一偏差的随机振荡,这种情况下的场景称之为背景。而场景环境往往是动态变化的,如环境自然光的缓变,灯光的突然熄灭或点亮,以及运动对象的出现、运动和消失等。如果能识别出场景中的动态变化,就能自适应的更新背景值,将光照的改变融合到背景值中。本文采取了用统计模型的方式给每个像素点建模,而以像素点变化的分布情况来确定光照突变引起的深度突变,并结合深度计算本身特性,解决光照缓变突变引起的误判问题,以及判别场景中对象的主次性。

3. 1 背景象素点的深度值建模

由于双目计算机视觉算法得到的深度值,已经是块融合的,可以根据精度要求,来加大块面积, 减少数据量。本文获得的数据量只有原像素点的( k, l分别是块的长和宽所包含的像素点个数) 。以统计的方法给每个像素点的深度值建模, 设为第u帧图像的某个像素点的深度值, 其中u代表第u帧图像, i, j分别代表像素点的横坐标和纵坐标。由一个时间滤波器来保持该像素点深度值的序列均值和时间偏差

其中,α是一个可调增益参数, 其与采样频率有关。通过滤波过程,来得到每个像素点的深度值基于时间的统计特性,由于这些统计特性反映了环境的动态特性,据此可以了解到是环境的光照发生了突变,还是有运动对象的运动。

3. 2 背景更新与场景识别

通过上述滤波过程,就可以将光照缓变融入到背景中去,实现背景的自适应更新。而对于光照突变,此时几乎所有的象素点的亮度值会同时增大或减小,但根据最大流算法的特性,同方向的变化对流量差不会引起太大变化, 而对深度计算结果只会引起较小的同方向变化。这种全局的等量变化, 可以认为是光照突变引起的。

其中, a、b和c是3个可调节系数,他们的取值可依据场景的情况及检测光照突变的速度与误差来进行选取。s, t分别是深度图像的长和宽所包含的像素点个数。Q是符合式( 9)的像素点个数。一旦检测到环境光照发生了突变, 就把背景点像素的深度序列均值,全部以当前帧像素点的深度值的测量

值代替,而j以0取代,从而实现背景的及时更新。

如果式(10)式(12)中任意一个不成立的话,则认为像素块深度值的变化并非由光照突变引起, 而是场景中有运动对象出现。

4、算法分析与实验

4. 1 算法复杂度

对于光照突变检测,若有突变的话,则会立即检测出来,当有运动对象出现时, 并且式( 10)式( 12)都接近满足时,处理会较慢,因为需要处理突变检测和运动对象两个过程。当b取25% s ×t时的处理速度与变化点比例关系如图2所示。

相对于一般的光强、灰度的识别检测算法,本算法的优势在于不仅可以利用深度特性更容易地检测到光照的渐变与突变, 而且可以判断出现的多个运动对象的主次性。

4. 2 算法误检率

由于光照直接对于像素点的光强、灰度等产生影响,所以深度算法的噪声容限更大,这样可降低了误检率,多组实验后得到的误检率对比图如图3所示。但是由于深度算法本身对于反光或者阴暗面会产生伪点,所以,某些时候由于光照突变中光源的位置变化而会误检为运动对象,为此算法还需进一步改进能判别伪点的出现, 除去它在光照突变检测中的影响。另外,公式中可调系数a, b, c的选取也会对不同场景产生影响。

笔者在实验室环境下做了不同光照角度、不同环境光强度、不同运动物体的多组实验,发现在反光面或是阴暗面较多的情况下,光照突变检测不是很灵敏,而且会出错,但是在增加系数a, c的值后, 误检率有所降低(如图3所示) 。

5、基于算法的监控系统

我们利用该算法实现了视频监控原型系统。计算机视觉算法对于摄像头的同步曝光要求很高,所以本系统终端用一块单独的MCU (micro control unit)控制同步曝光。核心算法用DSP处理。系统结构如图4所示。实际系统原型图如图5所示。

计算机视觉应用范文第4篇

关键词:双目视觉;匹配算法;计算机视觉;立体匹配;相位一致性

1.计算机视觉系统分析研究

1.1计算机视觉技术及双目立体视觉

计算机视觉是通过计算机技术实现对视觉信息处理的整个过程,是一门新的学科。视觉是人们认知事物的重要途径,视觉是人们对视觉信息获取、处理和存储的过程。随着计算机技术的发展,信号处理技术的应用,人们通过照相机来把实际的事物拍摄下来转变为数字信息,并通过计算机信号处理技术队获取的视觉信号进行处理。计算机视觉技术对图像的处理分为获取图像、特征抽象选取、事物识别及分类和对三维信息的理解。获取图像主要是通过摄像机和红外线等技术对周围视觉事物进行获取,并通过计算得到和真实事物相应的二维图像,二维图像主要是数字图像。计算机视觉系统的最基本的功能是数字图像的获取。可以看出计算机视觉研究最基本内容是三维场景距离信息的获取。在计算机被动测量距离方法中,有一种重要的距离感知技术叫作双目立体视觉。双目立体视觉技术是其他计算机视觉技术无法取代的一种技术,对双目立体视觉技术的研究在计算机视觉技术和工程应用方面都是非常重要的。

1.2计算机视觉理论框架

第一个视觉系统理论框架的提出是以信息处理为基础,综合了图像处理和神经生理学等研究内容而建立的。这个视觉系统理论框架是计算机视觉系统的基本框架,与计算机视觉技术有着密切的关系。视觉系统的研究是以信息处理为基础的,从理论层次、算法层次和硬件层次3个层次进行研究。计算机理论层次主要是表达系统各个部分计算的目的和方法,对视觉系统的输入和输出进行规定,输入作为二维图像,输出是以二维图像为基础建立起来的三维物体,视觉系统的目的就是对三维物体进行分析和识别,通过计算对二维物置和形状进行重新建立。算法层次对计算机规定的目标进行计算,算法和计算机表达有关,不同的表达可以通过不同的算法进行实现,在计算机理论的层次上,算法和表达比计算机理论的层次要低。硬件层次是通过硬件来实现算法的一种表达方法。计算机理论层次在计算机信息处理中时最高的层次,取决于计算机的本质是解决计算机的自身问题,不是取决于计算问题的计算机硬件。要更好地对计算机系统和框架进行理解最好的方法就是要区分3个不同的层次,计算机理论的含义和主要解决的问题是计算机的目的,表达算法含义和主要解决的问题是实现计算理论的方法和输入输出的表达,硬件的实现的含义和主要解决的问题是如何在物理上对表达和算法进行实现。计算机视觉处理的可以分为3个阶段,对视觉信息的处理过程从最初的二维图像的原始数据,到三维环境的表达。第一阶段基元图的构成,基元图是用来表示二维图像中的重要信息,主要是图像中亮度变化位置及其几何分布和组织结构,图像中每点的亮度值包括零交叉、斑点、端点和不连续点、边缘等。第二阶段2.5维图描述,在以观测者为中心的坐标中,表示可见表面的方向、深度值和不连续的轮廓,基元是局部表面朝向离观测者的距离深度上的不连续点表面朝向的不连续点。第三阶段三维模型表示,在以物体为中心的坐标系中,有由体积单元和面积单元构成的模块化多层次表示,描述形状及其空间组织形式,分层次组成若干三维模型,每个三维模型都是在几个轴线空间的基础上构成的,所有体积单元或面积形状基元都附着在轴线上。视觉理论框架图如图1所示。

2.基于计算机的视觉立体匹配算法研究

视觉立体匹配算法是基于人类视觉系统的一种计算机算法。立体匹配算法作为计算机立体视觉问题研究的重点,快速地实现图像对应点的匹配来获得视差图是当今研究的热点问题。立体视觉匹配算法根据基元匹配的不同可以分为相位匹配、区域匹配和特征匹配3种,其中区域匹配算法可以减少计算负担,区域匹配算法实时性高,应用前景广阔。计算机立体视觉通过对人的双眼进行模仿,在双眼的立体感知中获得信息,从摄像机拍摄的图像中获取物体的三维深度信息,这就是深度图的获取,把深度图经过处理得到三维空间信息数据,二维图像到三维空间实现转换。深度的获取在双目立体成像视觉系统中分为两步,首先在双目立体图像与图像之间建立点对点的对象关系,双目立体视觉算法研究的重点问题是解决对应点之间的匹配问题。其次以对应点之间的视差为依据对深度值进行计算。双目成像是获取同一场景中两幅不同的图像,两个单目成像模型构成一个双目成像模型。双目成像示意图如图2所示。系统的基线B是两个镜头中心的连接线,空间点w(z,y,z)作为世界坐标的值由(x1,y1)与(x2,y2)进行确定,如果摄像机的坐标位置和空间点w世界坐标的位置重合,图像平面和世界坐标轴xY的平面就是平行的。如果两个摄像机在坐标系统中的原点不同但是它们的光轴平行,那么双目成像计算人们可以看图3所示,图3表示的是两个摄像头连线在平台xY的示意。

立体视觉的成像过程是成像的逆过程,具有一定的不确定性。大量的数据信息在从三维影像向二维图像进行投影的过程会出现丢失的现象,所以视觉系统要通过自然的约束条件才能保证获取正确的解。这些约束条件在减少匹配的计算量方面可以提供有利的帮助。针对基于区域匹配快速算法,还可以应用基于视差梯度的匹配算法,这种匹配算法应用较大的搜索范围在边缘的特征点上进行搜索,采用视差梯度在非边缘区减少搜索范围。应用计算机视觉立体匹配算法可以减少成像匹配时间,大大提高了工作效率。计算机立体匹配算法征点的提取是算法的关键问题,今后的研究方向重点是对有效特征点提取方法的研究。

计算机视觉应用范文第5篇

关键词:数字摄影测量 计算机视觉 多目立体视觉 影像匹配

引言

摄影测量学是一门古老的学科,若从1839年摄影术的发明算起,摄影测量学已有170多年的历史,而被普遍认为摄影测量学真正起点的是1851―1859年“交会摄影测量”的提出。在这漫长的发展过程中,摄影测量学经历了模拟法、解析法和数字化三个阶段。模拟摄影测量和解析摄影测量分别是以立体摄影测量的发明和计算机的发明为标志,因此很大程度上,计算机的发展决定了摄影测量学的发展。在解析摄影测量中,计算机用于大规模的空中三角测量、区域网平差、数字测图,还用于计算共线方程,在解析测图仪中起着控制相片盘的实时运动,交会空间点位的作用。而出现在数字摄影测量阶段的数字摄影测量工作站(digital photogrammetry workstation,DPW)就是一台计算机+各种功能的摄影测量软件。如果说从模拟摄影测量到解析摄影测量的发展是一次技术的进步,那么从解析摄影测量到数字摄影测量的发展则是一场技术的革命。数字摄影测量与模拟、解析摄影测量的最大区别在于:它处理的是数字影像而不再是模拟相片,更为重要的是它开始并将不断深入地利用计算机替代作业员的眼睛。[1-2]毫无疑问,摄影测量进入数字摄影测量时代已经与计算机视觉紧密联系在一起了[2]。

计算机视觉是一个相对年轻而又发展迅速的领域。其目标是使计算机具有通过二维图像认知三维环境信息的能力,这种能力将不仅使机器能感知三维环境中物体的几何信息,包括它的形状、位置、姿态、运动等,而且能对它们进行描述、存储、识别与理解[3]。数字摄影测量具有类似的目标,也面临着相同的基本问题。数字摄影测量学涉及多个学科,如图像处理、模式识别以及计算机图形学等。由于它与计算机视觉的联系十分紧密,有些专家将其看做是计算机视觉的分支。

数字摄影测量的发展已经借鉴了许多计算机视觉的研究成果[4]。数字摄影测量发展导致了实时摄影测量的出现,所谓实时摄影测量是指利用多台CCD数字摄影机对目标进行影像获取,并直接输入计算机系统中,在实时软件的帮助下,立刻获得和提取需要的信息,并用来控制对目标的操作[1]。在立体观测的过程中,其主要利用计算机视觉方法实现计算机代替人眼。随着数码相机技术的发展和应用,数字近景摄影测量已经成为必然趋势。近景摄影测量是利用近距离摄影取得的影像信息,研究物体大小形状和时空位置的一门新技术,它是一种基于数字信息和数字影像技术的数据获取手段。量测型的计算机视觉与数字近景摄影测量的学科交叉将会在计算机视觉中形成一个新的分支――摄影测量的计算机视觉,但是它不应仅仅局限于地学信息[2]。

1. 计算机视觉与数字摄影测量的差异

1.1 目的不同导致二者的坐标系和基本公式不同

摄影测量的基本任务是严格建立相片获取瞬间所存在的像点与对应物点之间的几何关系,最终实现利用摄影片上的影像信息测制各种比例尺地形图,建立地形数据库,为各种地理信息系统建立或更新提供基础数据。因此,它是在测绘领域内发展起来的一门学科。

而计算机视觉领域的突出特点是其多样性与不完善性。计算机视觉的主要任务是通过对采集的图片或视频进行处理以获得相应场景的三维信息,因此直到计算机的性能提高到足以处理大规模数据时它才得到正式的关注和发展,而这些发展往往起源于其他不同领域的需要。比如在一些不适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,常用计算机来替代人工视觉。

由于摄影测量是测绘地形图的重要手段之一,为了测绘某一地区而摄影的所有影像,必须建立统一的坐标系。而计算机视觉是研究怎样用计算机模拟人的眼睛,因此它是以眼睛(摄影机中心)与光轴构成的坐标系为准。因此,摄影测量与计算机视觉目的不同,导致它们对物体与影像之间关系的描述也不同。

1.2 二者处理流程不同

2. 可用于数字摄影测量领域的计算机视觉理论――立体视觉

2.1 立体视觉

立体视觉是计算机视觉中的一个重要分支,一直是计算机视觉研究的重点和热点之一,在20多年的发展过程中,逐渐形成了自己的方法和理论。立体视觉的基本原理是从两个(或多个)视点观察同一景物,以获取在不同视角下的感知图像,通过三角测量原理计算像像素间的位置偏差(即视差)来获取景物的三维信息,这一过程与人类视觉的立体感知过程是类似的。一个完整的立体视觉系统通常可分为图像获取、摄像机定标、特征提取、影像匹配、深度确定及内插等6个大部分[5]。其中影像匹配是立体视觉中最重要也是最困难的问题,也是计算机视觉和数字摄影测量的核心问题。

2.2 影像匹配

立体视觉的最终目的是为了恢复景物可视表面的完整信息。当空间三维场景被投影为二维图像时,同一景物在不同视点下的图像会有很大不同,而且场景中的诸多因素,如光照条件,景物几何形状和物理特性、噪声干扰和畸变以及摄像机特性等,都被综合成单一的图像中的灰度值。因此,要准确地对包含了如此之多不利因素的图像进行无歧义的匹配,显然是十分困难的。

在摄影测量中最基本的过程之一就是在两幅或者更多幅的重叠影像中识别并定位同名点,以产生立体影像。在模拟摄影测量和解析摄影测量中,同名点的识别是通过人工操作方式完成的;而在数字摄影测量中则利用计算机代替人工解决同名点识别的问题,即采用影像匹配的方法。

2.3 多目立体视觉

根据单张相片只能确定地面某个点的方向,不能确定地面点的三维空间位置,而有了立体像对则可构成与地面相似的立体模型,解求地面点的空间位置。双目立体视觉由不同位置的两台或者一台摄像机(CCD)经过移动或旋转拍摄同一幅场景,就像人有了两只眼睛,才能看三维立体景观一样,然后通过计算空间点在两幅图像中的视差,获得该点的三维坐标值。现在的数字摄影测量中的立体像对技术通常是在一条基线上进行的,但是由于采用计算机匹配替代人眼测定影像同名像对时存在大量的误匹配,使自动匹配的结果很不可靠。其存在的问题主要是,对存在特殊结构的景物,如平坦、缺乏纹理细节、周期性的重复特征等易产生假匹配;在摄像机基线距离增大时,遮挡严重,能重建的空间点减少。为了解决这些问题,降低双目匹配的难度,自1986年以来出现了三目立体视觉系统,即采用3个摄像机同时摄取空间景物,通过利用第三目图像提供的信息来消除匹配的歧义性[5]。采用“多目立体视觉技术”可以利用摄影测量的空中三角测量原理,对多度重叠点进行“多方向的前方交会”,既能较有效地解决随机的误匹配问题,同时又能增加交会角,提高高程测量的精度[2]。这项技术的应用,将很大程度地解决自动匹配结果的不可靠性,提高数字摄影测量系统的准确性。

计算机视觉应用范文第6篇

【关键词】Opencv;计算机视觉技术;系统;研究

随着计算机技术的快速发展,计算机设备逐渐被应用到社会生活的各个方面,尤其是在当前计算机视觉技术和图像处理技术快速发展的时期,各个科技领域中的计算机视觉技术已经逐渐成熟。计算机视觉技术主要是利用计算机智能化来替代人眼,即对于客观存在的三维立体化世界的理解和识别,整个实现过程均是以计算机技术作为基础。随着计算机视觉技术的不断发展,现今其已逐渐成为了一门神经生理学、计算机工程、信号学、物理学、应用数学等综合性学科。计算机视觉技术系统其在高性能计算机基础之上来实现对大量数据的获取,并且通过智能算法来对获取数据进行处理,从而完成对数据集成。

一、视频中运动物体检测原理

对于视频中的运动物体检测主要分为两中方法,其一为宏观检测法;其二为微观检测法。宏观检测法是对获得的整幅图像进行检测,而微观检测法则是对所需要的区域进行图像检测。视觉技术在检测运动物体的时候,首先对图像进行采集,并对采集的信息数据进行预处理,将图像进行分割,然后分别提取运动物体的影象,从而实现参数的更新。图像采集过程中采用背景差分法,实现对背景图像的提取,其通过一定算法采用人为手段获取没有背景的图像。另外在进行运动物体检测的时候还可以采用帧间差分法,其主要是实时获取帧图,然后实现一帧一帧图像比值的比较,从而获取具有差值的图像。运动物体进行检测的时候需连续获取帧图,将这些帧图组合起来,其实就是物体的运动轨迹,然后同分割技术就能勾勒出物体的轮廓。随着计算机视觉技术的不断深入研究,发现此两种方法单独使用仍然存在的一些缺点,于是研究人员将二种检测方法进行融合,形成一种综合检测方法。综合检测法将两者检测方法的优势进行了融合,并将其灵活的应用到了生产和生活之中,取得了十分不错的效用。

二、基于Opencv的计算机视觉技术探究

(一)基于Opencv的运动物体检测

运动物体在进行检测的时候,基于Opencv的检测原理主要为:根据物体某项特定信息,例如,颜色、轮廓、性状等,在复杂背景中利用这些特定的信息将物体分离出来。整个图像的分离过程首先是进行视频流捕捉,然后是进行视频的格式转换,再将图像进行预处理,从而提取前景物体,减少环境因素对图像处理的误差,最后根据物体特征提取,并完成对运动物体的跟踪。从图像中提取所需的目标物体,其实质就是对整个屋里轮廓进行检测和分割,根据每个图像的帧差异来进行提取。

(二)基于Opencv图像预处理

视觉技术应用于复杂的环境之中,由于存在着光照的变化,其场景中所出现的环境因素对视频采集设备性能影响很大。环境因素会使得获取的图像信息的质量降低,并且在图像中无法避免的存在着噪点,这对于运动物体的检测和图像采集会造成很大的影响。当获取视频帧图像之后需对其数据进行预处理,通常有平滑度滤波处理、图像填充、图像背景更新等。

1.平滑度滤波处理

由于在进行视频图像采集的时候存在着噪点,那么我们就需要对其进行噪点处理,以求减小噪声。滤波平滑度滤波处理,其具有线性和非线性两种方式,其中线性方式进行处理器运算简单、运算速度快,但是在进行处理之后的图像都会呈现不清晰的情况。而非线性方式尽心给处理之后,虽然能够很好的减小噪点,确保信号的局部特点,但是其运算的速度会较慢。

2.图像填充

对于帧图像进行处理,通常采用检测边缘填充法或者是腐蚀膨胀法来完成,其中填充法是指当检测出目标物体之后,利用边缘检测方法来对物体进行辨识,然后利用形态学的漫水填充法进行填充。图像的腐蚀膨胀则主要是由于摄像机的性能等问题造成的。

3.实时背景更新

在进行图像差分之前,需要对背景图样进行确定,并且需要对其进行初始化处理。以方便以后在进行检测时候能够对实时背景图进行差分计算,只有这样,才能够获得极佳的前景效果。在进行图像差分时,首先需要根据指定法来确定第一帧背景的图像,并将其指定为第一张背景图片,然后在检测过程中根据算法对背景实施更新。整个图像在进行更新时,其主要的流程为:判断并读取图像是否为第一帧;将Opencv处理的图像转化为单通道灰度值;将实时采集的图像进行高斯平滑度处理,去除噪点;最后使用形态学滤波处理噪点。

(三)提取前景运动物体图像

检测运动物体的时候,只有在检测流程中确保精确度,才能够获取满意的前景跟踪效果。此过程中主要分为两个步骤,第一步为二值化图像之后进行分割;第二步,图像分析前处理,进行充分填充,确保前景图的完整性。其中,前景图的提取主要分为下面几个步骤:首先对前景图像和背景图像进行差分,然后对差分的图像进行二值化,再对背景中的前景图像边缘进行检测,根据轮廓进行填充图像。由于摄像头存在于不同的场景和环境之中,不论是室外或者是室内随着场景的变化都会对图像的采集产生影响。那么在前景图中提取目标就需要在检测系统中采用有效手段来完成背景实时更新。

阀值二值化分割法可以对检测的物体进行前景和背景差图分割,从而使目标物体能够分离出图像,且阀值分割先要确定每个像素的点是否处于灰度范围值之内。将图像中的像素灰度与确定的阀值进行比较,其结果解释所有像素点分为2类,一类像素的灰度小于阀值,另外一类就是大于阀值。阀值二值化分割时,确定分割的阀值T,然后分割图像。选取合适的阀值进行分割,可以有效的减少光照因素影响,常用的动态阀值主要有直方图来法与最大类方差法这另种分割方法。

三、计算机视觉三维技术

计算机视觉技术的核心为分割问题、运动分析、3D立体场景重构等,立体视觉主要是从多幅图像的参照中获取目标物体的三维几何信息。计算机视觉所模拟出的3D立体画面只需要摄像机从不同的角度同一时间针进行图像捕获,将2D信息进行3D重构,进而将计算机程序重建于真实的三维场景之中,以恢复物体的真实空间信息。

(一)视觉系统

视觉系统捕获图像的过程,实则可以看成为对大量信息进行处理过程,整个系统处理可以分为三个层次,其一,理论层次;其二,描述层次;其三,实现层次。在摄像机视觉系统之中,输入的是2D图像,但是输出为3D信息,而这就可以实现对图像的位置、距离等信息的如实描述。视觉系统分为三个进阶层次,第一阶段为基础框架;第二阶段为2.5D表达;第三阶段为三维阶段。在第二阶段中实现的2.5D表达,其原理是将不完整的3D图像信息进行表达,即以一个点为坐标,从此点看去某一些物体的部分被遮挡。第三阶段的三维阶段,则是人眼观察之后可以从不同的角度来观察物体的整体框架,从而实现了将2.5D图像信息的叠加重合运算,进一步处理之后得到了3D图像。

(二)双目视觉

人们从不同角度观看同一时间内的同一物体的时候,可以利用算法测量物体间的距离。此法被称为双目立体感觉,其依据的原理是视觉差原理,利用两台摄像机或者一台摄像机,对两幅不同的图像进行不同角度观察,并且对其观察的数据进行对比分析。实现双目立体视觉与平面视觉图像获取,其主要的步骤为:

(1)图像获取

从两台不同的摄像机,捕获帧图像,由于环境因素会造成图像差异困难。为了更好的跟踪目标、检测,当捕获图像之后,需要对图像进行预处理。

(2)摄像标定方式

获得真实坐标系中的场景点中的与平面成像点占比见的对应关系,借用三维立体空间中的三维坐标,标定之后确定摄像机的位置以及属性参数,并建立起成像的模型。

(3)特征提取方式

所谓的特征提取方式主要是为了提升检测、跟踪目标的准确性,需要对目标物体进行特征提取,从而实现对图像分割提取。

(4)深度计算

深度信息主要是根据几何光学原理,从三维世界进行客观分析,因为距离会产生不同的位置,会使得成像位置与两眼视网膜上有所不同。简单来说,客观景物的深度可以反映出双目的视觉差,而利用视觉差的信息结合三角原理进行计算,可呈现出深度的图像信息。

(三)摄像机模型

摄像机在标定过程中确定了其建立的基础为摄像机的模型,摄像机模型在标定过程中关系到三个不同坐标系的转换,分别为2D图像平面坐标系、摄像机自身坐标系以及真实的世界坐标系。摄像机在摄像的时候起本质是2D图像坐标转换,首先要定义摄像机的自身坐标系,将坐标系的原点设置为光心,X、Y、Z成立三维坐标系。其次则是建立平面的图像坐标系,用以透视模型表示,其原点也在广心的位置,称之为主点。实际应用中,物理的距离光心的位置d≠f焦距,而且会远远大于焦距,为了解决如此问题就提出了平面概念。在光轴z上设置一个虚拟的图像平面,然后在此位置于平面关于光心对称。接着,在设置的虚拟2D坐标系中,光轴和原点重合,并且摄像机与垂直平面的垂直方向相同,真实图像上的点影射到摄像机坐标系。

(四)3D重构算法

视频流的采集,主要是采用Kinect设备、彩色摄像头、红外发射摄像头、红外接收摄像头。使用微软提供API控制Kinect设备,在操作之前需调用NUI初始化函数,将函数的参数设置为用户信息深度图数据、彩色图数据、骨骼追踪图数据、深度图数据。上述的视频流的打开方式不同,既可以是一种打开方式,也可以是多种打开方式,尤其在进行Kinect传输数据处理的时候,需遵循三条步骤的运行管线。此三条管线分别为:第一条为处理彩色和深度数据,第二条为根据用索引添加颜色信息,并将其放入到深度图之中,第三条为骨骼追踪数据。

四、总结

随着计算技术的快速发展,视觉技术逐渐被广泛的应用于我们日常的研究之中。本文通过对视觉技术的相关问题进行分析,探究了图像处理、分割、前景提取、运动物体观测以及重构3D图等问题,为实现视觉技术更加深入研究做出了相应的贡献;为广大参与计算机视觉技术研究同仁提供一个研究的思路,为实现视觉技术的腾飞贡献薄力。

参考文献

[1]张海科.基于Opencv的人手识别与跟踪定位技术研究与实现[D].云南大学,2013.

计算机视觉应用范文第7篇

关键词 模式分析 计算机视觉 教学改革

中图分类号:G643.2 文献标识码:A DOI:10.16400/ki.kjdkz.2016.03.015

Research and Practice on Course Group of Pattern Analysis and

Visual Processing for Graduated Students

SUN Han, CHEN Songcan, LIU Ningzhong, HUANG Yuanyuan, ZHU Qi

(College of Computer Science and Technology, Nanjing University of

Aeronautics and Astronautics, Nanjing, Jiangsu 210016)

Abstract By analyzing the teaching status of pattern analysis and visual processing course group, this paper puts forward the new teaching goal, which includes improving students' international vision, the ability of linking theory with practice, and promoting the engineering practice ability and innovative consciousness. Then this paper discusses the whole process of course group reform. Firstly the structure of teachers' group is optimized. And then the knowledge system of course group is sorted and the teaching mode is improved. Finally the practice system of course group is optimized and the assessment system is reformed.

Key words pattern analysis; computer vision; teaching reform

1 背景

我校模式分析与智能计算研究所师资团队是江苏省“青蓝工程”创新团队,主要研究领域包括智能数据分析、图像处理和机器视觉等方向,承担研究生和本科生的模式识别、机器学习、数据挖掘、智能信息检索、数字图像处理、计算机视觉等课程的教学任务。以往的教学过程中虽然积累了丰富的教学经验,但当前新知识不断涌现、新技术发展迅猛,对模式分析与视觉处理课程群的知识体系、实践体系改进提出了新的挑战。

近年来,国内外高校在该类课程教学上,已涌现出众多新理念、新方法。Coursera联合创始人Andrew Ng推出的机器学习课程,开启了教育领域的MOOC时代,引领了教育教学方法的新革命。①深圳大学、②江苏科技大学③分别进行了基于CDIO工程教育理念的计算机视觉课程教学改革实践,实现多层次项目设计的教学模式改革,讲座式、讨论式、实践式教学方法的探索。国防科技大学④在计算机视觉课程中引入研讨式教学模式,通过案例教学、小组研讨的方式来替代传统的教学方式。华中科技大学⑤从教学内容国际化、教学方式国际化、教学成果国际化三个方面开展了计算机视觉课程的国际化建设。另外,也有高校进行了图像工程课程群建设,⑥基于图像分析与计算机视觉应用课程结合的项目协同创新能力培养实践。⑦

在分析上述国内外高校该类课程改革的基础上,我们重点以模式分析与视觉处理课程群的实践教学体系改革为切入点,优化师资队伍结构,梳理课程群知识体系,优化课程授课模式,完善课程群实践体系,改革实践考核模式,实现学生国际化视野、理论联系实际、工程实践和创新能力全面提升的目标。

2 模式分析与视觉处理课程群特点

模式分析与视觉处理课程群涵盖了模式识别、机器学习、数据挖掘、数字图像处理、计算机视觉等多门课程。该类课程存在以下特点。

(1)该类课程属于多学科交叉,涉及的知识面既广又深。由于该方向涉及计算机科学与技术、应用数学、自动化、电子科学与技术、信息工程等多学科内容,而学生在大学本科阶段很难学习和了解如此多的知识模块,这对研究生阶段学习来说,具有相当大的挑战。同时,对于每个知识模块,所要求的数学基础较高,理论具有相当的深度,理解和掌握不容易。

(2)该类课程既重视扎实的基础理论,也强调良好的工程实践能力。该类课程的基础理论教学一直受到各高校的重视。随着近年来产业界的迅猛发展,计算机视觉应用层出不穷,对学生的工程实践也提出了更高要求,需要能够在系统层次上有整体认知,同时要能对各功能模块进行优化,提升系统的整体性能。

(3)该类课程所面向的选修学生面广。该类课程既是多学科交叉,也面向计算机应用、电子科学与技术、自动化、应用数学等不同研究方向、不同水平层次的研究生开设。这对课堂教学和实验实践也带来更大挑战。

3 模式分析与视觉处理课程群改革举措

针对上述分析的课程群特点,我们重点以实践体系改革为突破口,通过优化师资队伍结构,梳理课程群知识体系,优化课程授课模式,完善课程群实践体系,改革实践考核模式等举措,实现学生国际化视野、理论联系实际、工程实践和创新能力全面提升的目标。

3.1 师资队伍结构优化

为了学生能够适应模式分析与视觉处理产业的快速发展,在课程群建设过程中更强调学生的工程实践和创新能力培养。这首先对师资队伍结构提出了新的要求。

近年来,课程教学团队引进海内外具有深厚理论功底和较强工程能力的高水平师资4名,大大充实了机器学习、数据挖掘、图像处理等课程的教学力量。对于现有教师队伍,鼓励教师跟产业一线企业广泛合作,目前已与华为、中兴等企业在视频检索、智能交通视觉处理等方面开展了实质合作。这些来源于产业界的高质量课题对科研和教学起到了良好的促进作用。

与此同时,通过研究生工作站、企业短期实习等渠道,鼓励企业高级研发人员参与到学生实践能力培养环节中,将实际项目进行适当切分或提炼,实现该类课程实践环节的模块化、专题化训练。

综上,通过引培并举,优化校内师资队伍结构;通过校企合作,积极吸引企业师资参与。良好的师资队伍为该类课程的实践体系改革提供了有力支撑。

3.2 课程群知识体系梳理与授课模式改革

模式识别、机器学习、数据挖掘、智能信息检索、数字图像处理、计算机视觉等课程既有一定的逻辑关系,也存在相互交叉的混杂关系。一般认为,模式识别、机器学习是模式分析与视觉处理领域的基础理论课程,数据挖掘是建立在模式识别、机器学习和数据库基础上的应用类课程,智能信息检索则是数据挖掘基础上更为具体的应用实现。数字图像处理为计算机视觉课程提供了基础支撑,计算机视觉则是在综合利用模式识别、机器学习、数字图像处理、数据挖掘等知识模块基础上面向应用的系统实现。但是,这些课程也存在着知识点的交叉或重复。例如,模式识别和机器学习中都有贝叶斯参数估计、支持向量机模型等知识点,但视角和侧重点有所不同;图像处理、计算机视觉中都有颜色模型、成像模型等知识点,也同时存在与模式识别、机器学习交叉的知识点。

我们针对来自不同研究领域的学生群体,对该课程群的知识点进行系统梳理,既避免知识点的重复讲授,也防止重要知识点的缺漏。课程教师集体讨论,形成每门课程的核心知识集,和针对不同研究领域的选讲知识集。学生在学习课程时,在掌握核心知识集的基础上,结合自己的研究方向选择相关的选讲知识集学习。

在课程教材和参考书的选择上,注重挑选国际上有影响力的教材。例如,模式识别的参考书为Richard O. Duda等人编著的Pattern Classification;机器学习的参考书为Tom M. Mitchell编著的Machine Learning和Christopher M. Bishop编著的Pattern Recognition and Machine Learning;数据挖掘的参考书为Jiawei Han等人编著的Data Mining:Concepts and Techniques;数字图像处理的参考书为K. R. Castleman编著的Digital Image Processing;计算机视觉的参考书为D. A. Foryth编著的Computer Vision: A Modern Approach和Richard Szeliski编著的Computer Vision: Alogrithms and Applications。这些教材已被国内外著名大学普遍采用。同时,每门课程都提供相关的国内外顶级会议和期刊的列表,供学生课后追踪研究领域的热点问题。

在课堂授课环节上,注意采用灵活多样的授课方式。对于核心基础知识模块,以教师讲授为主,同时提供国内外该类课程的热门MOOC网址给学生参考。对于选讲知识模块,鼓励学生事先结合各自研究方向有目的自学,在学生报告的基础上进行课堂讨论方式进行。充分发挥学生学习的主体作用,也便于教师了解学生的水平和学习状况。

除此以外,不定期邀请国内外著名学者来校做学术报告,让学生充分了解该研究领域的最新前沿动态,并就热点问题进行专题讨论。

3.3 课程群实践体系完善与考核方式改革

工程实践和创新能力的培养是该课程群改革的重要目标。我们在上述师资队伍结构优化、课程群知识体系梳理与授课模式改革的基础上,着力进行课程群实践体系的改革与完善。我们通过多层次菜单式的实验项目选择、项目牵引的创新能力训练、学生综合研究能力的全面考查等方面来实现。

首先,整合和优化课程群实践内容,实现多层次菜单式灵活选择。根据各研究领域的要求进行灵活搭配,根据学生个体的能力与水平选择适当规模和难度的实践内容,通过课程内的基础实验、课程间的综合实验、课程群的创新实验来选择和组合,如图1所示。

图1 多层次菜单式实验内容示意图

基础型实验内容主要是各课程核心知识点的实验验证,主要包括模式识别,机器学习,数据挖掘,图像处理与分析,计算机视觉等课程的实验。要求选课学生对这些基础实验必做,打下良好的研究基础。

综合探索型实验在基础型实验基础上,既有单门课程内总的综合实验,也有课程间知识的综合应用。主要分为两大块,包括模式分析与机器学习方向的综合实验,以及图像处理与机器视觉方向的综合实验。实验目的主要是针对这两大块方向重点知识的综合分析和比较,能够熟练掌握和灵活应用。例如模式分析、机器学习、数据挖掘等方向都用到的线性判别分析、支持向量机、均值聚类等内容;图像处理与机器视觉中的图像特征抽取、视觉系统选型、目标检测、特定平台的算法优化等内容。学生可根据各自研究方向有目的的选择两块综合实验的大部分内容。

在综合型实验基础上,该课程群通过若干创新型实验来检验学生理论知识掌握程度和实践方法应用能力,为后续的研究课题开展打下良好的科研素养。主要内容包括人脸识别、二维条码识别、车辆属性识别、智能视觉监控、以及企业来源的关键技术等。这些项目实践既涉及用到图像处理与机器视觉的内容,也涉及模式分析与机器学习方向的知识。并且需要学生在综合运用相关知识的基础上有创新能力。

其次,重视各类项目牵引的创新能力训练。一方面,鼓励教师从国家自然科学基金、企业合作项目等研究中提炼出问题规模和难度适中的训练项目,作为课程群的综合能力训练项目。另一方面,鼓励学生参加挑战杯、全国研究生智慧城市技术与创意设计大赛等各类具有挑战性的竞赛项目,以赛代练,提升学生的工程实践和创新能力。同时,也鼓励学生利用百度、微软等相关研究领域的企业实习机会,参与产品一线的工程实践能力训练。

再次,注重考核环节,实现科研素养和实践能力的全面考查。只有严格、公平、公正的考核,才能保证实验实践的质量和水平,才能提升学生的科研素养和实践能力。我们主要在手段、方式方法上进行了改进。在题目选择上,根据学生个体水平和研究领域要求的差异,在选题上有适当的难易区分度,让每位学生都有锻炼和提升的机会;在考核方式上,采用结题书面报告来检验学术论文的写作能力,采用程序演示检验系统的设计与实现水平,采用上台汇报的方式检验学生的表达能力,多管齐下全面检查学生的综合科研素养;在考核成绩评定上,采用现场教师和学生共同评分的方式,公平合理;最后,通过网站展示、发表学术小论文、专利、软件著作权等方式展示和公开优秀成果,激发学生的学习热情,并由此形成积累,有利于学生实验实践氛围的传承。

4 结语

本文在分析国内外高校模式分析与视觉处理类课程群改革现状的基础上,以学生国际化视野、理论联系实际、工程实践和创新能力全面提升为目标,重点开展了师资队伍结构优化、课程群知识体系梳理、课程授课模式改革、课程群实践体系完善和实践考核模式改革等工作,取得了良好的效果,并为校内其他课程群的教学改革作为示范推广。

注释

① https:///learn/machine-learning/

② 郭小勤,曹广忠.计算机视觉课程的CDIO教学改革实践.理工高教研究,2010.29(5):98-100,148.

③ 史金龙,白素琴,庞林斌,钱强.研究生机器视觉课程的CDIO教学改革实践.计算机教育,2013.9:40-43.

④ 陈芳林,刘亚东,沈辉.在《计算机视觉》课程中引入研讨式教学模式.当代教育理论与实践,2013.5(7):112-114.

⑤ 王岳环,桑农,高常鑫.计算机视觉课程的国际化教学模式.计算机教育,2014.19:101-103.

计算机视觉应用范文第8篇

关键词:计算机视觉;地图匹配;SLAM;机器人导航;路径规划

1概述

计算机视觉在人工智能学科占据重要地位,为自主移动机器人视觉导航做了深厚的理论铺垫。目前,机器人导航技术有很多种,传感器导航技术如里程计、激光雷达、超声波、红外线、微波雷达、陀螺仪、指南针、速度、加速度计或触觉等得到了普遍应用,与上述非计算机视觉导航技术相比较,计算机视觉导航技术如人眼般具有灵敏度高且可捕获的信息量大以及成本低等优点。由于室内相对室外空间比较狭小且内部环境复杂,所以普通移动机器人在作业过程中,完成躲避眼前障碍物、自主导航以及为自身找出一条可行路径等一系列操作会相对比较困难。计算机视觉导航技术可利用本身的摄像头获得室内周围的环境信息,实时对其周身的场景进行快速反馈,对视野前方障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文对计算机视觉导航技术进行分类研究,主要分为3类:第一类是环境地图事先已知,提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配;第二类是同时定位与地图构建,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航;第三类是不依赖环境地图,自主移动机器人不需要依赖任何的环境地图,其在作业活动时的可行区域主要取决于摄像头实时识别和检测的环境相对信息。

2环境地图的表示方法

目前,计算机视觉导航技术多采用栅格地图、几何地图、拓扑地图和混合地图构建环境地图信息。

2.1栅格地图

栅格地图,将栅格图像考虑为一矩形,均分为一系列栅格单元,将每个栅格单元赋予一个平均概率值,并利用传感信息估计每个单元内部内存障碍物的概率。构建栅格地图的优点是其地图表达形式直观,创建和维护比较容易;但当划分的栅格单元数量不断增多时,实时性就会慢慢变差;当划分的栅格单元越大时,环境地图的分辨率越低。

2.2几何地图

几何地图利用几何特征如点、直线、平面等来构成环境主要框架,需要知道这些特征在环境中信息的具置,所以几何地图通常使用其对应的三维空间坐标来表示。几何地图构建过程相对简单,保留了室内环境的各种重要信息,是基于计算机视觉的定位与地图构建算法中最常用的一种表示方式。但是为了完成环境的建模需要标记大量的特征,从而计算量也非常的大,降低了实时性,其重建的地图也容易出现与全局不一致的情况。

2.3拓扑地图

拓扑地图用许多节点和连接这些节点的曲线来表示环境信息。其中,每个节点相对应真实环境中的特征点(如门角、窗户、椅子、桌子角及拐角等),而节点之间的曲线表示两个节点对应的地点是相联通的。拓扑地图把环境信息表上在一线图上,不需要精确表示不同节点间的地理位置关系,图像较为抽象,表示起来方便且简单。机器人首先识别这些节点进而根据识别的节点选择节点与节点间的曲线作为可作业的路径。

2.4混合地图

混合地图主要包括3种形式:栅格一几何地图、几何一拓扑地图以及栅格一拓扑地图。混合地图采用多种地图表示,可结合多种地图的优势,与单一的地图表示相比更具有灵活性、准确性和鲁棒性,但其不同类别的地图结合起来管理会比较复杂,难以协调,增加了地图构建的难度。文献针对室内环境所建立的模型分为全局拓扑和局部几何表述部分,整体环境通过拓扑节点串连起来,维护了整体环境表述的全局一致性;而以每个拓扑节点为核心所采用的几何表述则可确保局部精确定位的实现,这样建立的几何一拓扑混合环境模型可将二者的优势都表现出来,使得移动机器人定位和地图构建同时进行,实现容易。

3基于计算机视觉的室内导航

基于计算机视觉的室内导航技术可利用摄像头捕获机器人周围环境的全部信息,对其周身的场景进行反馈,对障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文将计算机视觉室内导航技术主要分为3类:第一类是环境地图事先已知;第二类是定位与地图构建同时进行;第三类是不依赖环境地图。

3.1环境地图事先已知

提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配,即预存环境地图。在环境地图事先已知的导航中,路标信息保存在计算机内存的数据库中,视觉系统中心利用图像特征直接或间接向移动机器人提供一系列路标信息,一旦路标被确定后,通过匹配观察到的图像和所期望图像,机器人借助地图实现自身精确定位和导航。该导航技术过程可分为以下步骤:

a)图像获取:摄像头获取其周围的视频图像;

b)路标识别及检测:利用相关图像处理算法对图像进行一系列预处理如进行边缘检测和提取、平滑、滤波、区域分割;

c)路标匹配标志:在观察到的图像和所期望图像之间进行匹配,搜索现有的路标数据库进行标志路标;

d)位置计算:当有特征点进行匹配时,视觉系统会根据数据库中的路标位置进行自身精确定位和导航。

在基于计算机视觉的地图匹配定位过程中,主要有2种地图匹配较为典型。

①已知起点,已知地图。这种条件下的定位称为局部定位,采用的是一种相对定位的方法,如图1所示为其位姿估计过程,这种情况目前导航技术研究得最多。

②不知起点,已知地图。这种条件下的定位称为全局定位。当机器人需要重置时,通常使用这种定位方法来检索机器人的当前位置(即姿态初始化)。常用的辅助方法是在环境中添加一些人造信标,如无线收发器,几何信标,条码技术,红外或超声波接收系统进行位置识别,利用视觉系统识别自然标志,自主定位。

3.2定位与地图构建同时进行

不知起点,不知地图。SLAM技术最早由Smith等人于1986年提出,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航。在日后的导航研究中,混合地图中的几何一拓扑混合环境模型被得到广泛应用,主要用来解决SLAM问题。

2003年,在解决SLAM技术难题上,Arras等人采用基于Kalman滤波器和最邻近(nearest neighbor)匹配策略的随机地图创建方法。下面是该算法步骤:

a)数据采集:首先初始化系统,从摄像头传感器采集距离数据;

b)状态预测:视觉系统预测机器人运动状态,实时返回新位姿信息和协方差矩阵,预测地图;

c)观测:从原始捕获的信息中提取主要特征信息并将此信息返回给局部地图;

d)测量预测:预测机器人当前位姿的全局地图;

e)位置匹配:应用最邻近滤波器匹配局部地图中的观测点和预测点;

f)估计:使用扩展Kalman滤波器更新地图;

g)创建:将非相关的观测点加入地图,对机器人返回增量式地图;

h)输出地图。

制约机器人视觉系统性能的重要因素是信息实时处理的计算复杂度和处理效率,SLAM算法需要在地图密度与计算效率之间取得权衡。

3.3无环境地图

在这类系统中,机器人不需要依赖任何的环境地图信息,机器人的活动取决于其当时识别和提取出来的环境信息,这些环境信息可能是桌子、椅子和门等,不需要知道这些环境元素的绝对位置。无环境地图的导航技术典型的技术有3大类:基于光流的导航技术、基于外观信息的导航技术、基于目标识别的导航技术和基于目标跟踪的导航技术。

3.3.1基于光流的导航技术

光流是三维空间运动物体在观测成像面上的像素运动的瞬时速度,也是图像亮度的运动信息描述。光流法计算最初是由Horn和Schunck于1981年提出的,其利用二维速度场与灰度,引入光流约束方程,得到光流计算的基本算法。光流计算基于物体移动的光学特性提出了2个假设:①运动物体的灰度在很短的间隔时间内保持不变;②给定邻域内的速度向量场变化是缓慢的。如Santos-Victor等人研发了一种基于光流的robee视觉系统,该系统模拟了蜜蜂的视觉行为。在robee视觉系统中,使用单独的双目视觉方法来模拟蜜蜂的中心反射(Centering Reflex):当机器人移动到走廊两侧的墙壁中心时,左眼捕获场景的瞬时速度与右眼捕获场景的瞬时速度是相同的,几乎没有差别,那么机器人就可以知道他们在走廊的中心。如果眼睛两侧的眼睛的瞬时变化速度不同,则机器人移动到较慢的速度。在自动机器人导航的实现中,基于这个想法是测量摄像机捕获图像场景瞬时速度差异。这种导航技术只能用于室内单通道直走道导航,不能引导机器人改变方向,具有一定的局限性。

3.3.2基于外观信息的导航技术

基于外观的机器人导航方法,不需要构建真实的地图导航,机器人通过自身所携带的摄像头和传感器感知周围目标的外观信息进行自主定位和导航。其中,所述的外观信息多为目标信息的颜色、亮度、形状、空间大小和物理纹路等。机器人在导航时存储连续视频帧的环境图像信息,并将连续视频帧与控制指令相关联,从而再执行指令规划有效路径到达目的地。

3.3.3基于目标识别导航技术

为了达到目标点或是识别目标,机器人很多时候只能获取少量的图像信息。Kim等人提出了一种用符号代替导航各个位置的赋值方法。该赋值方法中,机器人执行命令如“去窗边”“去你后面的椅子旁”等。这样,通过相关的符号命令,机器人自动识别并建立路标,通过符号指令到达目标点。例如“去你后面的椅子旁”,这样的命令就是告诉机器人路标是椅子、路径向后。该导航技术的难点在于目标是否可以准确实时识别路标。第一,识别大量不同类别的物体,室内环境有许多不同类别的物体,需要将它们组织到一个在给定的容易搜索图像数据结构中去,起到容易识别是用什么度量来区分物体;第二,识别大量不同背景下的物体,一个合适的物体表达式有助于将图像组织成片断,而这些片断来自于物体的种类且与物体无关的;第三,在抽象层次上识别物体,机器人可以不需要在看到一个具体的杯子之前便能知道它是一个杯子,相关程序能够类似的物体进行识别和区分。

3.3.4基于目标跟踪的导航技术

基于目标跟踪的导航技术,为机器人构造一个虚拟地图,机器人通过摄像头获取连续的视频序定一个跟踪的目标,为了达到对目标的精确定位和实时跟踪,可以利用粒子滤波算法对需要跟踪的目标进行建模。基于粒子滤波的目标跟踪主要包含四个阶段,分别是初始化目标区域,概率转移,目标区域权重计算,目标区域重采样。在机器人导航之前,通过视频序列的当前几帧标注机器人所需要跟踪的目标,在导航时,机器人通过连续的视频帧感知周围的待跟踪目标,同时对所需要跟踪的目标散播粒子,当获取的视频帧对目标区域重采样后足以让机器人确定所需要跟踪的目标时,机器人通过确定的目标为自己规划最有效的路径到达目的地。获取视频序列目标跟踪是算机视觉领域中的重要分支,它在工业生产、交通导航、国防建设、航空导航等各个领域有着广泛的应用。