欢迎您访问大河网,请分享给你的朋友!

当前位置 : 首页 > 范文大全 > 报告范文

计算机视觉行业研究范例(12篇)

来源:网友 时间:2024-03-05 手机浏览

计算机视觉行业研究范文

关键词:双目视觉;三维可视化;信息融合

1.引言

随着计算机软、硬件突飞猛进的发展,社会的各行各业对三维可视化技术的需求已经越来越突出。当前三维显示技术已在军事、航空、航天、医学、地质勘探、文化娱乐和艺术造型等方面得到广泛应用。

为实现变电站的三维可视化,需要对变电站进行三维建模,构建变电站的三维模型。监控摄像头采集现场数据之后,对视频进行智能处理,根据设备的状态和人员目标的状态,将设备与人员的状态融合入变电站的三维可视化系统中,通过采集的数据以及处理结果实时更新目标的状态和位置,并且实时显示到变电站三维系统中。

2.三维可视化技术研究现状

(1)研究现状

1)建模软件

目前应用较多的是欧特克(Autodesk)公司的3dsMAX和Maya;Multigen公司的Creator;Google公司的SketchUp;Microsoft旗下Caligari公司的trueSpace等。这些建模软件,几乎可以满足我们所见到的任何现实世界中的物体模型的建立,比如房屋、道路、管道、植物、动物、日常用品以及我们现实生活中见到的一切。

2)平台软件和应用软件

三维可视化软件大都依赖于计算机图形学和可视化技术的发展。人们对计算机可视化技术的研究已经历了一个很长的历程,而且形成了许多可视化工具,比如Directx和OpenGL,尤其在地里信息系统领域,当前Arc/info,MapInfo,MAPGIS,SuperMap,GeoStar等国内外专业二维GIS软件都有自己专有的三维GIS子系统。比较专业的三维可视化系统软件或平台有:美国ERDAS公司的IMAGINEVirtualGIS;美国Skyline软件;国内适普软件有限公司的IMAGISClassic;国内灵图的VRMap。

另外,像国内的武汉吉奥公司的CCGIS、上海杰图三维展示系统、中视典的VRP产品体系,在三维可视化方面都有自己独特的功能。

(2)双目立体视觉与三维重建

双目立体视觉是计算机视觉的基础内容,它利用成像设备在不同角度获取目标物体的两幅图像,然后基于视差原理,计算两幅图像中对应点的位置偏差,获取物体空间信息的方法。

3.信息融合技术发展状况及方法

(1)发展状况

信息融合技术是智能信息处理的一个重要研究领域。1973年,美国国防部自主开发了声呐信号理解系统,数据融合技术在该系统中得到最早的体现。此后,数据融合技术蓬勃发展,不仅在人工系统中尽可能采用多种传感器来收集信息,而且在工业控制和管理等领域也朝着多传感器方向发展。20世纪70年代末,在公开的技术文献中开始出现基于多传感器信息整合意义的融合一词,并开始广泛应用与军事与民用领域。

在美国军用电子技术带动下,20世纪80年代后期以来西方其他先进技术国家也先后加强多传感器信息融合研究活动,而且很快向民用部门扩展。1987年2月,美国国家科学基金会(NSF)首次在犹他州召开了“制造自动化中的多传感器信息融合”学术研讨会。

同年10月,全美人工智能学会(AAL)在伊利诺斯州召开了“空间推进与多传感器融合”学术研讨会。1988年,美国摄影仪器工程师协会(SPIE)主办了两次有关信息融合的学术研讨会,一次主题为“空间推理与景物解释”,另一次主题为“传感器融合”。同年,美国国防部把信息融合技术列为90年代重点研究开发的二十项关进技术之一,且列为最优先发展的A类。1989年,北约组织也在巴黎召开了这方面的会议,主题是“计算机视觉中的多传感器融合”。美国一实验室理事会(JDL)下设的C3技术委员会(TPC3)专门成立了信息融合学术会议,并通过SPIE传感器融合专辑、IEEETrans,OnAES,AC等发表有关论著;为了进行广泛的国际交流,1998年成立了国际信息融合学会,总部设在美国,每年举行一次信息融合研究国际学术大会。

到目前为止,美、英、法、意、日等国已研究出上百个军用融合系统,取得了一定的成果,但还存在着一些难题没有完全解决。如传感器模型、融合过程的推理以及有关算法的研究等。

国内关于信息融合技术的研究起步相对较晚,到了20世纪80年代末才开始有关多传感器信息融合技术研究的报道。20世纪90年代初,这一领域在国内才逐渐形成高潮。在政府、军方和各种基金部门的资助下,国内一批高校和研究所开始广泛从事这一技术的研究工作,出现了一大批理论研究成果。

20世纪90年代中期以来,信息融合技术在国内已发展成为多方关注的共性关键技术,出现了许多热门研究方向,许多学者致力于机动目标跟踪、分布监控融合、多传感器综合跟踪与定位、分布信息融合、目标识别与决策信息融合、姿态评价与威胁估计、图像融合、智能机器人等领域的理论及应用研究,相继出现了一批多目标跟踪系统和有初步综合能力的多传感器信息融合系统。

(2)信息融合技术方法

信息融合作为对多源信息的综合处理过程,具有本质的复杂性。传统的估计理论和识别算法,以及新兴的基于统计推断、人工智能和信息论的新方法,都可以用来解决信息融合问题。目前主要的信息融合方法可以分为以下几类:

1)信号处理与估计理论方法

这种方法包括小波变换技术、加权平均、最小二乘、卡尔曼滤波等线性估计技术,以及扩展卡尔曼滤波(EKF)、高斯和滤波(GSF)等非线性估计技术,以及近年来发展的UKF滤波、粒子滤波和马尔科夫链蒙特卡洛(MarkovChainMonteCarlo,MCMC)等非线性估计技术。

2)统计推断方法

统计推断方法包括经典推理、贝叶斯推理、证据推理、随机集(randomset)理论以及支持向量机理论等

3)信息论方法

信息论方法运用优化信息度量的手段融合多源数据。典型算法有熵方法、最小描述长度方法(MDL)等。

4)决策论方法

决策论方法往往应用与高级别的决策融合。

5)人工智能方法

人工智能方法包括模糊逻辑、神经网络、遗传算法、基于规则的推理,以及专家系统、逻辑模板法和品质因数法等。

6)几何方法

几何方法通过充分探讨环境以及传感器模型的几何属性来达到多传感器信息融合的目的。

4.总结

随着新技术的不断发展,未来还会应用到更多更新的领域中,本文对三维可视化技术和信息融合技术的研究现状及原理进行了分析,相信基于信息融合的三维可视化技术未来也将在电网建设中进一步深化应用。

参考文献

[1]郭玲.智能视频监控中运动目标检测的算法研究[D].华南理工大学,2013.

[2]孙振宇.双目视觉重构算法及其在变压器中的应用[D].东北电力大学,2015.

[3]余小欢,韩波,张宇等.基于双目视觉的微型无人机室内3维地图构建[J].信息与控制,2014,43(4):392-397.

[4]常文凯,李恩,杨国栋等.基于双目视觉的输电线路近距离三维位置测量[J].华中科技大学学报,2015,43:144-147.

计算机视觉行业研究范文篇2

【关键词】SIFTHu单目视觉识别算法研究

单目视觉技术在现阶段被广泛应用在工业的在线识别系统中,为工业自动化的发展提供了良好的支持,得到了越来越多相关人士的重视,特别是在对物体识别和定位处理上有着广阔的应用前景。单目视觉技术中的目标识别定位大多以图像匹配技术为基础,按照不同匹配基元、匹配方法来对物体进行区域匹配、相位匹配以及特点匹配等。机器的单目视觉技术匹配识别算法由传统的实验室应用转为实际应用,比如利用该视觉识别方法对行人和车辆进行有效识别的实际应用。文章提出了一种基于SIFT和Hu融合的单目视觉识别算法,通过这种算法能够对物体目标在运动、声音、遮挡等因素干扰的情况下进行有效匹配,同时提升匹配的效率。因此有必要具体对此算法进行分析和研究。

1基于SIFT和Hu特征融合的算法的总体设计

基于SIFT和Hu特征融合的算法流程是三维目标识别系统的关键,对其具体的工作方式有着决定性作用,步骤体现在以下几方面:

1.1单目摄像机的标定标准

摄像机标定的目的是实现三维图像坐标和世界坐标之间关系的建立,继而有效识别三维目标,为接下来的抓取处理做铺垫。

1.2实现对图像的采集

主要是利用单目摄像机来对三维物体的图像序列进行采集,以太网的作用下将其信息传输到计算机内部,并在视觉软件的应用下对其应用模式进行识别和处理。

2基于SIFT和Hu特征融合的算法的分层设计研究

2.1单目摄像机的标定

基于SIFT和Hu特征融合的算法中单目摄像机的标定是其算法检测领域中的关键问题,标定参数的精确程度对最后的测量结果有着直接的影响,因此,需要对单目摄像机的标定进行关注。单目摄像机的标定一般包括对摄像机几何模型的确定以及对模型参数设置两方面内同。摄像机的标定法多数应用的是棋盘格标定模板,利用摄像机拍摄的三种模板图像特点来确定最终的参数。

2.2对Hu不变矩的确定

矩是由概率理论衍生出来的一种重要数字特征,具有直观的物体意义。Hu不变矩是由叫做Hu的人提出的一种二维不变矩理论,主要是用来对图像平移、图像大小、图像旋转等特征获取的方法。其匹配的实质是根据已有的图像特点来从目标测定的图像中寻找相似图像的过程。基于SIFT和Hu特征融合的三维物体特征获取主要使用的是Hu不变矩方法。这几种矩阵在平移、位移以及旋转的情况下保持了不变的特性。这种矩阵布局特征在总体上反映了三维物体图像的总体信息,包括对三维物体图像位置信息的全面确定。

2.3SIFT目标识别

全局特征虽然在总体上对三维物体图像的整体信息进行了反应,且能够对特征进行匹配。但SIFT能够从不变的关键点中来提取出图像的特征信息,是相对于全局特征而言的一种局部特征提取算法。基于SIFT和Hu特征融合的单目视觉识别算法对SIFT目标识别的应用能够在搜索方式和对错输的剔除上进行改进,进而提升识别的及时性。

SIFT能够根据三维目标的信息来对局部信息进行匹配,进而有效提升识别算法的时间,具体包括以下几个步骤:首先,实现对尺度空间的构建,加强对极值点的检测,从而获得不变性的尺度。具体的空间定义公式如下所示,其中,I指的是二维图像,G指的是二维高斯函数,(x,y)是空间坐标。计算出的值越小则代表图像被平滑的可能性越小,对应的尺度也越小。计算出的小尺度一般用来对图像特征的检测,大尺度一般用来对图像概貌特征的检测。

DoG算子和尺度归一化的函数计算公式采用的是高斯金字塔方法,不同尺度因子的高斯核对图像卷积得到的图像尺度空间不同,通过层层依次类推能够得到最终的第三层高斯图像。之后将获得的高斯图像以层层递减的方式对每层图像相减。这种图像的函数和归一化的高斯拉普拉斯图像函数计算方法相似,因此能够从高斯差分结构图像中提出具有局部特征的点。将DoG尺度空间计算获得的点和相邻的尺度位置点进行比较,能够得到局部极值的具置点信息和对应的尺度。

3总结

综上所述,基于SIFT和Hu特征融合的算法对三维物体特征的识别和研究具有重要的意义,通过这种融合算法能够有效完成三维物体识别的匹配任务,同时,在视觉算法库的环境下能够实现对仿真软件的编制。因此,需要有关人员不断加强对SIFT和Hu特征融合的算法的研究,进而更好地实现准确、快速的三维物体目标识别定位。

参考文献

[1]李中生,赵彬,刘振宇,赵雪,田立敏.基于SIFT和Hu特征融合的单目视觉识别算法研究[J].微型机与应用,2013,13:41-45.

[2]李中生.机器视觉在机器人码垛系统中的应用研究[D].沈阳工业大学,2014.

[3]赵旭.人体运动的视觉重建与识别[D].上海交通大学,2011.

[4]朱旭锋.基于图像不变量特征的自动目标识别技术研究[D].中国科学院研究生院(西安光学精密机械研究所),2012.

作者简介

孙长江(1972-),男,山东省人。现为新疆金牛能源物联网科技股份有限公司高级工程师。大学本科学历。研究方向为物联网感知层技术开发。

谢欣岳(1985-),男,陕西省人。现为新疆金牛能源物联网科技股份有限公司工程师。在读研究生。研究方向为电子工程嵌入式开发。

计算机视觉行业研究范文篇3

生活中,每个人都问过别人“这件衣服是从哪买的?”“这双鞋是什么牌子的?”这一问题很快会被AI技术解决,只需要拿出手机对着物品拍照,就会得到商品的各种信息,并且能一键买买买。这就是美国著名图片社交网站Pinterest(拼趣)即将推出的应用图片识别购买业务。

Pinterest总裁TimKendall表示,“Pinterest可以即刻在存储750多亿张图片的巨大网络空间内进行搜索,从而为用户找到与所拍摄照片相似的配对图片,以及查找到哪些地方能够买到他们所需的商品。”

目前,Pinterest的估值已经达到了110亿美元,该公司的专注点正在向营收增长和创收方面转变。相比Facebook、Twiter等社交网站,Pinterest已经率先找到了一条清晰的创收道路。

从兴趣到产品

亚里士多德曾经说过,古往今来人们开始探索,都应起源于对自然万物的惊异。科技的进步也是如此,就像微软研发主管和项目负责人MitchGoldberg所说:“我们想通过该应用向人们展示识别技术的无限魅力。”

今年2月,微软旗下的Garage实验室了一款名为“Fetch!”的应用,它可通过机器学习系统识别照片中宠物狗的品种并用文字对该品种进行简单的介绍。

随着计算机视觉领域开始利用深层神经网络这种模仿人类大脑生物过程的系统来从事机器学习,识别的精确度实现了巨大飞跃。也就是说通过机器学习技术,Fetch!识别的准确度会越来越高,随着大量图片的涌入,Fetch!可以自我修复错误,从而更加精确地识别每一只狗的样貌、形态、动作。除了测试狗类品种以外,你还可以把朋友的照片上传至平台,看看他们能够对应出哪种宠物。

微软的这款产品基于目前最为热门的一种图像识别技术――“深度神经网络”,同样基于这种技术,微软还有另一款有趣的产品:。去年5月,有超过5.75亿图片被提交到,超过8500万来自世界各地的使用者访问了这个网站,只为寻找一个简单问题的答案――颜龄机器人认为我看起来像几岁?如果是合照,并且颜龄机器人识别出的自己比周围人年龄小,则更能引发用户的兴趣,这种“损人利己”的识别应用着实在社交媒体上火了一把。

另一让计算机视觉研究技术人员特别感兴趣的领域是生物识别,当下最为火爆的莫过于人脸识别技术了。早期的人脸识别技术多为安防领域,如海关识别走私犯、商店识别小偷等。近年来,深度学习的研究与应用使得人脸识别和人工智能的核心技术得到了极大的提升,摄像头等图像硬件的发展为人脸识别提供了很好的图像基础,如今人脸识别技术应用更加广泛,比如公司可以使用刷脸打卡来杜绝代人打卡签到现象。

其实早在2012年,谷歌就开发出了安卓系统的“刷脸解锁”技术,但因安全问题未解决,该技术一直未能得到普及。

而今年3月,电商巨头亚马逊提交了一项针购物付费的专利技术,即消费者在亚马逊网站购物时可以通过自拍或者视频来进行付费,无须再输入账号密码。在消费时系统会提示用户表现出特定的行为、情绪或手势来证明消费者就是本人,而不是拿着照片的冒名顶替者。

亚马逊表示,这项技术能使消费者更加安全地进行网上购物,因为很多用户为了省事会把所有账户都用同一个密码,或者把密码记在手机里,一旦遭遇“撞库”或者手机被盗,后果不堪设想,而刷脸技术则没有这个风险。

除了识别人脸,在识别其他生物方面也有了突破性进展,比如识别寄生虫。疟疾,是一种由疟原虫造成的全球性急性寄生虫传染病,据统计,2015年有大约有2.14亿人受疟疾的影响。

一直以来,医疗工作者是通过肉眼观察采样玻片来确定采样对象是否被疟原虫感染,这不但是对医疗工作者经验的考验,而且工作效率也十分低下,而贫困地区一直都缺乏有经验的医疗工作者。

今年2月,根据MITTechnologyReview报道,IntellectualVenturesLaboratory(智能事业实验室)开发出了能够检测和评估疟疾感染的便携式显微镜。这种显微镜采用的是一个名为“Autoscope”的系统,通过计算机视觉和深度神经网络技术,采用深度学习算法来鉴别疟原虫。这款便携式显微镜今年在泰国实地测试,成功鉴别出了170块玻片中的疟原虫如果这项技术得到普及之后,只要诊所有一台Autoscope显微镜和一些载玻片,就可解决疟疾的诊断问题,这将使疟疾诊断不再依赖于有限的专业医疗人员。

技术转化为产品

新技术的出现,让计算机不但“看见”这个世界,更能“看懂”这个世界,可以代替人眼甚至超越人眼。

人的视野是有限的,并且会受到周边条件的影响,驾驶员在开车时会有视野盲区,还会受到光线的影响,并且大雾、暴雨等极端天气也会严重影响驾驶员的视线。而计算机视觉技术就不一样了,视野会更开阔,受限制更小。根据汽车媒体《Leftlane》报道,福特公司最新的无人驾驶汽车研究计划是由激光感应(LiDAR)和雷达、摄像头形成一张周围环境的高清3D地图,不但让无人驾驶汽车看到摄像头视野范围之外的物体,而且并不受光线限制。在夜间试驾后,福特工程师WayneWilliams说:“坐在汽车里,我能感到它在走,但是我往车外看,只能看到一片漆黑。结果令人惊喜,车辆准确地沿着蜿蜒的道路行驶。”

识别场景这一领域技术的发展,使得计算机不但能当机器的眼睛,还能变成人类的眼睛。

对于双目失明的人来说,能亲自感知这个世界是梦寐以求的事,而微软2016Build开发者大会上SeeingAI项目正是要帮助盲人实现这一愿望。

SeeingAI项目是通过计算机视觉和自然语言去形容一个人的周围环境、朗读文本、回答问题以及识别人的面部表情,可以在手机上使用,也可以在Pivothead的智能眼镜上使用。如果投入使用,将有助于为视障人士营造更公平的环境,是一款能够真正改变人们生活的产品,就像此项目的高级项目经理AnneTaylor所说的,这是“为真正重要的场景寻求解决方案”。也许不久微软能开发出一种仿生眼,直接发送视觉信号到大脑,让盲人真正看到这个世界。

计算机视觉行业研究范文篇4

关键词:农业;采摘;机械手

采摘机械手涉及机械设计技术、计算机技术、电子控制技术、智能识别技术、传感器技术等领域,通过微机原理技术、精准机械定位系统技术及计算机视觉技术的融合,在农业果实采摘、农业果树生长质量及提高生产效率等方面进行全方位的精准定位控制,以实现采摘功能,是目前一种有效采摘果实的方式。20世纪80年代末,机械手被广泛应用于汽车工业、航天航空和农产品加工,计算机视觉技术开始应用于机械手,目前较多采用中国大恒的DH-HV3100FC数字摄像及中国大恒的DH-VT123双通道彩采集卡构成双目立体视觉系统,根据建立数学模型、利用MATLAB软件辅助进行图像处理、利用微机及单片机系统技术编写出GUI界面控制2个摄像头实现同步拍摄,在农业采摘及其生产效率等方面,取得了丰硕的成果。

我国对采摘机械手在农业方面应用的研究起步于20世纪90年代中期。以精准农业智能采摘机械手研制为代表,中国科学院及中国农业大学等代表高校,对农业采摘方面的研究调查、国外采摘机械手技术应用情况分析调查,及对机械手技术应用基础研究,引进美国、日本的采摘机械手设备,开始了自动采摘设备系统的研制,为农业果实采摘及生产效率的提高提供了全方位的技术支持。周云山和李强等人研究的蘑菇采摘机器人处于是国内领先水平;西北农林科技大学对苹果采摘机器人手臂控制进行了研究,为之后采摘机械手在农业方面的发展奠定了基础。采摘机械手在农业部门的应用始于20世纪90年代末期,当时机械手在农业领域没有达到实用化,受到农业领域环境、劳动强度、作业质量的影响,在采摘方面只进行人工作业,劳动强度大且效率低下,因此在农业部门要求下,开始着手研究采摘机械手。20多年来,采摘机械手在农业领域应用越来越广泛,国内研发完成大量采摘机械手相关基础性试验工作,在农业果实采摘方面取得巨大的进展。

1采摘机械手机械结构设计

最初,我国研制的采摘果实设备机械基本都很笨重,一部分的工序速度较慢,导致生产效率低下,且影响果树的再生长。设计合适的机械结构,能有效提高生产效率及果实的采摘率。而且可以保证农业果实质量,从而提高果实在国内外市场的价格竞争优势。设计巧妙的机械手结构表现在:(1)根据农业田间地形基本特征,结合执行末端功能,设计出适合的农业采摘机械臂。(2)利用3D扫描仪,对果实数学建模和轮廓造型进行拟合实验及分析,设计出以数据信息和模型为基础的适用较多农业果实采摘勺子型剪切执行末端。如图2所示:

2农业采摘系统应用

最初,农业果实采摘只能依靠人的视觉去判别及人工去采摘,导致个人主观因素而对采摘效率的影响,采摘机械手是提高农业自动采摘效率的有效途径。现代由于智能化的发展,计算机视觉系统、精准的定位系统及合适的机械结构成为自动采摘方面用途广泛。以图像处理与智能识别技术为基础,通过纹理特征提取、形状特征提取、颜色特征提取、数学建模及小波分析算法等特点要求,选择相应的数学算法、数学模型、信号滤波处理方法。例如:美国佛罗里达大学研究员研制了柑橘采摘末端执行器,其依置于末端执行器的内部的1个CCD摄像机和超声波传感器来探测水果的位置;JohanBaeten和SvenBoedrij等人研制了苹果采摘机器人末端执行器,其硅树脂管里装有微型摄像头,用于获取末端执行器正前方苹果图像。综上所述:实现农业果实自动化采摘离不开机械手的应用,同时也说明了国内外学者在采摘机械手方面研究取得巨大的进步,为农业果实采摘方面提供了技术支持,为实现农业自动采摘等方面奠定了基础。

参考文献

1杨文亮.苹果采摘机器人机械手结构设计与分析.江苏大学,2009(6)

计算机视觉行业研究范文篇5

[关键词]移动机器人导航技术现状展望

中图分类号:TP242文献标识码:A文章编号:1009-914X(2016)18-0147-01

移动机器人导航是利用其传感器,扫描、收集周围环境信息,确定路线规划并编辑程序使其移动。笔者认为,经过业内科研人员不懈努力,移动机器人导航技术不论在理论研究或应用实践均取得积极成效,但展望未来,理论研究有待补充,技术难题亟待解决。

1.移动机器人的导航方式概述

移动机器人在利用导航技术获取周边环境信息以确定行走方向或所在位置时,需综合利用科学算法,得出数据模型并形成指令,方可规划最优路径。

1.1.电磁导航

电磁导航是最早被研发的导航技术。技术人员在机器人预设路线上设置多条电线,机器人在运行中通过接收电流频率,通过感应线圈感知行走指令[1]。经过多年尝试,科研人员认定该方法准确率高且运用简单,但前期铺设电线需消耗过多人力、物力,因此该方法的维护成本较高。

1.2.视觉导航

视觉导航是机器人常用导航技术,其特点是探测信号范围广、信息获取准度高。研究人员在移动机器人头部安装巡航影像系统,其内部含有传感器辨识系统、图像辨别系统和路径规划技术等。视觉导航采用电荷耦合器件图像传感器(简称CCD),它是集信息划分、整理、读取为一体的综合传感器,当机器人进行路径规划时,CCD传感器会将传输至系统原件的电荷转移至影像系统内的二维传感器进行合成,通过系统扫描对数据进行量化建模,形成指令[2]。

1.3.其他导航技术

光反射导航是在机器人接收外界光线频率以自主移动。该方法成本低廉、操作简单,也是国内机器人研发机构使用较广泛的方法。

声音导航技术是机器人利用内部声音识别系统辨识无规律、无方向的声音频率,尤其是在光线不充足环境中,机器人可通过声音精确定位;另外,味觉导航是应用于机器人内部高灵敏度的化学传感器,根据气味、气流方向检测气流浓度情况,便于机器人搜寻气源,确定行程路线。

2.探讨移动机器人导航技术发展现状

笔者认为,移动机器人导航技术在精确定位、路径规划、信息融合等方面有较强优势,但仍需提升技术指标,校准误差,确保导航准确性。

2.1.导航定位

国内机器人导航技术一般采用相对定位法,通过筛选距离、测定方位、计算最优路径等步骤,确保机器人按预定路线移动。该方法收集数据速度较快,但长期精准较差。近些年,国内科研机构引进了惯性导航法,即利用陀螺仪测算机器人内部控件转速,利用加速计计算运动加速度,反复测量以求得累积测量值。惯性导航法提升了测算效率,但在计算过程中无法避免时间误差,若机器人移动距离较长,误差会逐渐增大,定位精准度下降。

国外机器人定位利用绝对定位法,即将机器人内部导航系统与太空卫星进行网络连接,卫星可向机器人导航系统传输全球定位信息,并对重点位置标记,便于技术人员更好地掌握路径环境数据。绝对定位法有助于机器人较精确地感知局部环境信息,进一步减少误差风险。

2.2.规划路径

路径规范技术是机器人内部搜索算法的实现,即确定目的地后,系统自动计算最优路线信息,主要是测定最佳距离及避免障碍物。当前,路径规划分为全局路径技术与局部路径技术,其中,全局路径技术采用直线搜索法,即直接测算从起始点到终点的最短距离与最少用时,将此为最优线路设计依据,而局部规划技术是处于运动中的机器人及时收集局部环境数据,并测算其加速度和检测内部性能,利用计算数值构造模型,以控制机器人运动不偏离预计方向。

2.3.传感器的信息融合

传感器是机器人应用导航技术的载体。为强化传感器信号输入的准确性与可靠性,国内外研发机构会在机器人顶部安置多位传感器,既促进对环境信息收集、分析和运算速度,提升了测算准确性,又使多部传感器发挥重组或互补优势,进一步完善系统数据计算的互补性,保证系统运行高速和准确性。另外,传感器技术是模仿生物神经系统处理信息模式,一般进行复杂环境下的信息描述和系统测算工作,用于筛选采集样本、辨识信息的正误,充分保证了多位传感器系统的高度统一性。

3.浅谈移动机器人导航技术展望

目前,移动机器人导航领域的信息处理、精准定位等研究理论和技术改造不断提升,随着网络计算机技术日益发展,未来机器人导航技术会有更严格的标准和更困难的问题等待我们去探索、解决。

3.1.改进视觉导航技术

未来一段时间内,视觉导航技术需重点提升系统测算精度,扩充数据存储容量,提高图像处理速度。笔者认为,视觉导航的发展趋势是提高处理图像静态、动态的信息识别,使机器人时刻根据周边环境变化以改进路线,让导航系统探测范围更广、信息收集更完整及图像处理实时性更强。

3.2.提升传感器技术融合性

目前,机器人导航的多为传感器融合技术,进一步促进了信息的融合性。但该技术适用环境需严格限制,原因是部分传感器性能无法与视觉导航、电磁导航等技术充分融合,无法胜任高精度测算任务[3]。因此,未来需要进一步探究如何提升传感器与不同导航系统的融合性,并加以改进,让机器人将来可不受环境约束,加速信息的融合、处理,不断地获取高精度的数据。

3.3.提升机器人系统性能

通常,机器人系统处理信息效率越高,则导航结果越精确,机器人导航系统在收集外界信息后,将其分解、归类为基础信息并逐一处理[4]。未来,科研人员通过升级当前系统,开发模块信息平台,让不同信息同时列于平台上处理,提升系统运行效率。

日后,国内外的机器人研发机构还会加强多位机器人导航系统应用。设计连接程序,将不同机器人导航系统串联,使多个机器人利用空间通信法相互分享不同方位测定的数据,以此判定到达位置的最优路径,使机器人资源可最大化利用。

4.结语

笔者认为,现阶段机器人导航技术的创新发现为将来更进一步实施技术改进打下了坚实的理论基础和积累了丰富的实践经验。今后,我们更需提高移动机器人导航技术的定位精确性、信息融合性等方面,进一步创新研发更优质性能的导航系统,并将网络发展的理念和技术逐渐渗入到机器人导航的研究领域,提高导航的人工智能性,使移动机器人更加造福于人类社会。

参考文献

[1]林义闽.未知环境中智能机器人的视觉导航技术研究[D].北京邮电大学,2014.

[2]蒋浩然,陈军,王虎,雷王利,袁池.移动机器人自动导航技术研究进展[J].西北农林科技大学学报(自然科学版),2011,12:207-213.

计算机视觉行业研究范文篇6

关键词:计算机视觉;教学应用;教学改革

计算机视觉是人工智能学科中的一门重要课程。随着相关应用在多个领域中的出现,越来越多的学生开始对这门课产生了浓厚的兴趣。如何让学生能够在整个课程中保持盎然的兴趣,并为有志于深入研究计算机视觉的学生指明方向,成为我们教师首先应注重的问题。

在实际的教学工作中,通过不断摸索总结,我们认为,以实际应用引导学生的学习兴趣,既满足了学生想了解计算机视觉实际应用的需求,又加深了学生对于算法的理解,把算法放在一个实际应用中,学生可以理解怎么用,为什么这么用。在这样的目标导引下,我们从选择教材开始,准备教学内容(包括合理的应用实例的选择)、制作PPT、探索教学方法,形成了目前以实际应用为主导的创新教学体系,非常受学生欢迎。在此,我们对这期间遇到的问题,解决方法、心得体会做一个总结和思考,希望能对同行有些许参考作用。

1选择教材

在我们这个专业,每年的上研率基本都保持在50%左右。在本专业的研究生阶段,也开设了双语教学的计算机视觉课程。另外,毕业后选择参加工作的同学也基本都进入和本专业非常相关的一些单位,所从事的工作,都是和在学校学习的知识密切相关。

因此,如何让这门课程的教学既兼顾本科毕业就参加工作的那部分同学,又兼顾继续深造的学生的需求,也是在这门课程讲授的过程中,需要特别注意的一个问题。对于本科毕业就要参加工作的同学而言,需要“广度”,需要了解计算机视觉这门课在各个领域中的应用,在实际中接触到相关的项目或工作时,能够知道去哪里可以找到自己需要的参考资料;而对于要进一步深造的同学而言,则需要一定的“深度”,为研究生阶段的研究打下基础。

全盘考虑到这些学生毕业之后的去向,我们选择了两本教材。一本是贾云得教授编著,科学出版社于2000年出版的《机器学习》[2],这是一部顺应了时代与教学发展要求的教材,对计算机视觉中的基本概念、基本算法、基本算法的应用、经典应用进行了由浅入深的介绍。内容涵盖了所有经典的数字图像处理与机器视觉方法,也对一些已经得到非常好实际应用的方法,如光流法等作了简要介绍。另外还选择了一本英文原版的计算机视觉的经典著作,RameshJain教授等所著的《MachineVision》[3],机械工业出版社于2003年出版。这是国内外非常推崇的一本计算机视觉著作,该教材条理清晰,深入浅出,对计算机视觉的基本原理、算法、应用的介绍非常详尽。

在教学中,我们采用了英文的PPT,但主要用的教材是贾云得教授的《机器视觉》,这样中英文对照讲解,一方面加深学生对教学内容的理解,另一方面也为学生今后阅读专业的英文论了相应准备。

2教学内容和工程实例的选取

2.1选取教学内容

本课程之前,大学二年级的本科生已开设数字图像处理课程,但所讲的基本原理和算法都非常浅显,所以在教学内容的安排上,分为两大部分:数字图像处理部分和视觉部分。数字信号处理部分主要讲解在视觉部分会用到的一些基本算法,为后面进入计算机视觉部分打基础。这部分约占总课时的1/3。视觉部分的课时也分为两部分:算法讲解与实例讲解。在算法讲解部分,对计算机视觉的基本算法、经典算法都做了深入浅出的讲解。实例部分则选择了经典的工业应用,让学生能够对所学算法进一步加以理解。

2.2选取适当的工程实例

就计算机视觉的教学内容而言,各个孤立的算法和方法对本科生来讲,有些抽象不好理解。如果在教学上仅仅通过老师在课堂上的讲解,很难让学生深入地理解相关的教学内容,而选择一个触手可及且简单好理解的工程实例往往就会达到意想不到的教学结果,学生可以把课堂上所学的枯燥理论与现实中活生生的事物联系起来,从而加深对教学内容的理解。

通过反复比对、反复论证,我们选择了在讲解基本原理和算法之后,在课程结束前,专门留出课时讲解手机制造这个例子。手机现在是人手一部,是这些年青学子再熟悉不过的事物了,通过对手机主板、手机键盘的制造过程的讲解,把所学的算法都融合进来,学生在觉得有趣的同时,不知不觉就加深了对所学算法的理解。

另外,在教学的过程中,我们还不断穿插其他学生耳熟能详的实例,如数码相机原理中的一些算法的讲解,我们和学生一起探讨应该怎么选择数码相机。再有,滤波器算法、在课堂上对Photoshop功能的演示,与所学算法关联起来,学生都很容易理解接受。

3教学点滴

3.1点睛之笔

在第一节课的讲述中,我们的重点不在于Marr理论,而是告诉学生:

人工智能就是要让计算机像人一样,能够会听、会看……

我们这门课程就是要让计算机“会看”,要像人一样会看。进而展示给学生一些我们精心挑选的图片,让学生自己判断,是不是自己的眼睛“骗了”自己,人眼和计算机看到的到底有什么不一样。

每次讲到这里,学生都会进行热烈的讨论,每个人都有不同的看法,每个人都有自己的坚持,不知不觉中,对这门课就产生了浓厚的兴趣,有了继续深入学习下去的愿望。在课堂讨论的最后,比较人眼对图片的判断以及计算机的判断后,让学生自己总结归纳,我们这门课到底要研究些什么,都有可能应用在哪些方面,然后对争议比较大的提议一一探讨。每到这个时候,大家的积极性就都被激发出来,在不断的争论与思想碰撞中找出正确的结论。

3.2拿身边的事物说“事”

计算机视觉课程的前半部分,多涉及到图像处理的一些常见算法。在讲授各种各样的滤波器和算子时,并没有针对各个滤波器和算子摆出一堆示例图片,让学生比较滤波前后的差异,从而很生硬地理解滤波器与算子的功能。取而代之的,我们首先以现在人手一台的数码相机为例提出问题,你为什么要选择你手里的这台数码相机?当初选这个品牌和型号时,你的考虑是什么?历年学生的回答几乎都是看网上测评,或者在网上看别人怎么说。这时列出我们收集到的各个品牌相机的测评报告,列出它们的优缺点,然后引导学生去思考,例如这个品牌的相机的缺点是照片发灰,不是很鲜亮,而另一个品牌的相机则绿的特别绿,红的特别红,为什么?那么有可能是哪部分的算法不够完善,为什么?

通过如此简单的对比,学生的积极性被完全激发。原来,数码相机这个几乎人人都有,大家都熟悉的“玩具”竟然和自己在课堂上学到的知识这么密切相关。

再有,就是利用学生们都熟悉的PS(Photoshop),演示现在所谓的“完美证件照”是怎么来的。为什么可以把疙疙瘩瘩的脸部皮肤变得光滑?在PS中,你就是点了一下鼠标,其实在后台,是加入了一个滤波器进行了滤波。各种这样的演示,学生都非常喜闻乐见。因为他们突然发现,原来那些事物,和我自己接触到这些看似枯燥的理论之间,还有这么深刻的联系。

还有一个很受学生欢迎的例子就是对于“鼓形失真”的讲解。我们的老师每次讲到这里,都不会简单告诉学生“鼓形失真”发生的原因是什么,应该怎么解决?老师都会问学生,明星为什么都一窝蜂去减肥?现在的女明星为什么都要去弄个“锥子脸”?课堂上就会出现一个小高潮,男同学和女同学的看法各异,彼此之间开始争论不休。此时再趁热打铁地问学生,如果拿着相机,离自己的鼻子一公分,会拍出什么样的效果?有学生开始拿出手机对着自己和别人开拍,有的学生开始头头是道地分析。每到这种学生都开始热烈讨论的时候,就可以适时引导学生往正确的方向去,让他们自己找到正确的分析解决方法,往往这个时候,学生都会颇有成就感,对于问题的理解也会特别的深刻。

3.3选择合适的实际应用

在所有理论讲解结束后,我们会留出2~4次课讲述计算机视觉在工业上的应用。这些年来,对于手机制造这样一个工业应用,非常受学生欢迎。正如“数码相机”这个例子一样,现在学生都是人手一部手机,是大家再熟悉不过的东西。这个例子涉及到了在前面理论讲述中的大部分算法,如二值图像的处理、模板匹配、高斯滤波器等。学生通过对这个工业应用的理解,更进一步加深了对算法的理解。

以讲解手机键盘的制造过程为例,向学生提出和前面所讲内容相关的问题,引导学生自发思考,如为什么选择模板匹配法,而不是采用其他更复杂更精确的方法等等。每到这个时候,课堂气氛总是分外热烈,学生各抒己见,在不断争论中,更进一步加深对课本上枯燥理论的认识。

在这里需要注意的问题是一定要一步一步提出问题,循循善诱,引导学生一层一层地深入思考。如果问题的答案过于“深藏不露”,则有可能触发学生的抵触情绪,无法继续深入地思考。

4结语

通过多年的教学摸索,我们认为,在计算机视觉课程的讲述中,以实际应用引导学生这样的教学方法非常可取,而且也收到了很好的效果。另外,除了制定好的教学大纲,并选择合适的教材外,根据学校现在的时间情况,我们选择了多媒体手段辅助教学,充分利用Matlab和大屏幕投影等方方面面的优势,结合多种方法进行教学,对讲好计算机视觉这门课,非常有益。

参考文献:

[1]林尧瑞,马少萍.人工智能导论[M].北京:清华大学出版社,1989.

[2]贾云得.机器视觉[M].北京:科学出版社,2000.

[3]RameshJain.MachineVision[M].北京:机械工业出版社,2003.

[4]蔡自兴.智能控制原理与应用[M].北京:清华大学出版社,2007.

InnovationintheCourseofComputerVision

HANHong,JIAOLi-cheng

(SchoolofElectronicEngineering,XidianUniversity,Xi’an710071,China)

计算机视觉行业研究范文1篇7

关键词:现代科技,农业,机械工程

1引言

农业机械化不仅是人类的解放,解放劳动力。这些年轻的劳动力投入到其他领域,促进中国的经济发展可以提高农业生产的效率,优化操作质量和增加作物产量,有利于农业发展和农民收入,因此,今后应重视先进技术的推广,提高农业机械化水平。目前农业机械的使用,一些机械在使用过程中不能清楚地确定作物的位置,机器在关闭过程中很容易错过,所以利用新技术在农业机械有利于弥补农业机械的脆弱性,提高机器的运作效率。

目前,高新技术的应用范围扩大,农业机械行业也开始使用高新技术,引入计算机视觉技术、自动控制技术、信息网络技术、人工智能技术、机器人技术和液压技术在农业机械的应用现状。

2农业机械的应用技术

2.1农业机械的应用计算机视觉技术

农业机械的应用计算机视觉技术,主要是利用计算机视觉技术在农产品质量、品位等农业产品检查,是基于图像处理,计算机视觉的学科,主要是视觉信息处理理论。表达和计算方法研究,近年来,图像处理,计算机硬件和软件,等可视化仿真技术的逐渐发展计算机视觉技术的使用功能也扩大,计算机视觉技术是用来检查农产品的质量不仅是现阶段和分级产品还用于收割、种植等。

2.2农业机械的CAD技术

CAD技术在我国已广泛应用于机械工程设计制造从上个世纪60年代,我国40多年后独立研究开发和推广应用。但由于我国机械工程设计CAD系统的开发过程的社会主义改革开放的影响,以便后期的完美程度我国机械工程设计CAD系统程度的效率和其他性能大大受到限制,相对于我国的国外机械工程设计CAD系统仍处于较低水平。

2.3农业机械的信息网络技术

信息网络技术在农业机械中的应用非常成功,信息网络技术和地理信息系统,结合自动化技术等技术,可以监测作物和土壤的农业生产,也可以生产作物的发展,植物病虫害,和实时监控等等,然后依靠定位系统和地理信息系统来完成现场操作。

农业机械、机器人技术应用、信息网络、计算机视觉、自动控制技术的融合。目前,已经开发了采摘机器人,嫁接机器人,机器人除草,施肥机器人喷涂机器人,等。对肥料和喷涂机器人的使用,可以避免肥料、杀虫剂和其他化学品危害人体,达到改善环境的目的。目前虽然我国机器人技术落后于发达国家,取得了一些就,但由于现代机械机器人的购买成本非常高,所以这项技术并没有得到普及。

在农业机械的设计、制造和测试,虚拟现实技术具有非常广阔的发展前景,利用虚拟现实技术建立三维模型的农业机械设计师不仅可以了解每一个部分的质量,也可以完全满足的每一部分的运行性能三维农业机械模型具有很高的精度,和农业机械制造商大规模生产的计算机数据的基础上。

在虚拟制造系统中,虚拟现实技术的基础,虚拟制造系统是由多种学科知识,利用计算机技术综合建模、仿真、生产、制造汽车。与此同时,虚拟制造系统还可以制定合理的产品检验和测试程序。目前,虚拟制造技术应用范围广泛,涉及开始工装及模具生产设备,和其他领域,可以在生产部门系统,在这一过程中完成建模、修改、分析和优化的四个工作。此外,虚拟现实技术用于柔性制造系统和计算机集成制造系统的设计。

2.4人工智能技术

近年来,全球高端技术获得了农业机械在农业的快速发展,管理,挖掘和采摘等实现智能化,使用人工智能技术研究和开发的激光拖拉机、内部导航设备,等等,可以拖拉机的方向和具置测量,并通过建立计算机数据库将记录相关数据,使用数据库了解排水位置、土壤湿度、等等。了解土地信息后,制定合理的土地种植方案,计算机化化肥消费,数量的农药和种子。

3先进技术的应用在农业机械化操作的保障措施

得到更好的应用程序为了促进先进技术,提高农业机械化水平,未来应该完善的技术推广体系,提高农业机械化水平,促进农业生产和发展。完善的技术推广体系,高度重视农业技术推广,建立试验示范基地,发挥作用的指导,让农民参观和学习。让他们意识到农业机械设备的重要作用,加强农业机械化的意识,接受和使用机械设备,技术推广和培训活动。让广大农民掌握农业机械和设备的使用,提高思想认识和应用技能、农业机械和农业技术应用于农业生产。

构建技术环境,当地政府应该高度重视农业机械和农业技术推广的作用。提高思想认识,加强规划和指导,增加资本投资,培训专业人才,创新工作方法,对许多人来说,完善的技术推广体系,认真履行职责,并扩大先进技术的影响。完善法律法规,充分利用其在技术和人才优势,重视技术的宣传和推广活动,增强服务意识,扩展广泛的服务渠道,更好的满足实际工作的需要,对农业技术的发展,为推广农业机械和设备创造便利。

4农业机械新技术的发展

农业机械新技术的应用和发展是为了提高农业的生产力服务,所以农业机械新技术的发展主要是以下几点:

首先,加快新技术的使用和推广。科学技术是第一生产力,加快计算机视觉技术、自动控制技术和智能技术等新技术在农业机械的使用,同时引进国外先进的机械、新技术,促进我国农业的发展,提高农业的生产效率具有重要意义。

第二,政府补贴。购买新机器的个人组织生产、资本压力,使得他们很难机械技术推广,所以对于农业机械推广使用新技术,政府将给予补贴材料,扩大新机器的使用。

第三,提高农业资源的利用效率。机械使用以提高农业生产的效率,提高农业资源的利用率。例如,在传统的农业生产过程中,和处理农作物秸秆,绝大多数情况下燃烧,不仅浪费资源,还污染空气。但农业机械的使用新技术的农作物秸秆粉碎加工、作物秸秆可以转化成脂肪不仅材料,提高农业资源的使用效率,也减少了空气污染。

5结束语

现代农业机械制造技术是现代农业生产技术、现代机械制造加工技术全面的产品组合,和通用机械制造技术有明显的差异,在发展现代农业过程中机械制造技术。应该开始从现代农业发展的实际需求,不断扩大该地区的农业机械化技术,一些先进的农业机械化技术,快速推广现代农业机械制造技术。

参考文献

[1]刘利.绿色技术在农业机械工程中的应用[J].农业开发与装备,2015,07:29.

[2]吴长海.浅谈先进技术在机械化农业运作过程的应用[J].农民致富之友,2015,10:223.

[3]胡静涛,高雷,白晓平,李逃昌,刘晓光.农业机械自动导航技术研究进展[J].农业工程学报,2015,10:1-10.

计算机视觉行业研究范文篇8

摘要:针对机器人课程的多学科交叉特点和现有实验教学设备功能有限的现状,自主设计了一款开放式可升降双轴随动转台。该转台具有三个自由度,可以开展底层运动控制、传感器数据采集与处理、运动物体检测与跟踪实验,具有很好的开放性,对机器人本科实验教学具有良好的促进作用。

关键词:机器人;实验教学;转台;开放性

中图分类号:G642.0文献标志码:A文章编号:1674-9324(2017)24-0267-02

一、机器人课程实验教学存在的主要问题

高校机器人课程是一门多学科综合交叉的边缘学科。随着中国制造的产业化升级和“中国制造2025”政策的,对机器人领域的专业人才需求量越来越大,机器人教学应当积极应对这一变化,顺势而为。针对高校机器人课程教学中存在的问题,已有很多相关的研究和探索,旨在改进课程教学方法,提高教学质量。然而,机器人课程实验教学仍然存在诸多问题,包括实验仪器开发、实验方法研究和实验室建设等,仅靠教学人员或实验人员均无法独立解决。笔者多年从事机器人教学和实验发现:首先,组成机器人的机械、控制和感知系统对应的知识内容相互孤立;其次,机器人教学、科研和应用开发等用途之间相互孤立。二者分别对应微观、宏观两个层面的“孤岛效应”,制约了学生对机器人课程关键知识的理解和吸收,无法形成完整的闭环。现有的机器人实验教学仪器存在功能、开放程度、与课程体系的结合程度等方面的不足,无法满足新形势下机器人实验教学要求。为此,自主研制了一款开放式可升降双轴随动转台。该转台获得了安徽省首届高等学校自制实验教学仪器设备展评活动一等奖和第四届全国高等学校自制实验教学仪器设备评选活动三等奖。

二、开放式可升降双轴随动转台的研制

该转台是一款由可编程序控制器(ProgrammableLogicController,PLC)控制的三自由度云台,由机械系统和控制系统组成。通过在转台上安装视觉传感器,可以进行运动物体检测与跟踪。

1.机械系统。由升降、偏航和俯仰机构组成。升降机构使用电动缸带动转台在竖直方向上直线移动。偏航、俯仰机构使用直流伺服电机经谐波减速器减速和同步带传动后,分别绕竖直、水平转轴做回转和旋转运动。在水平转轴上安装了视觉传感器,通过转台的运动,实现多视角图像采集。

2.控制系统。底层控制器为西门子S7-1214PLC及其扩展模块,用于进行电机控制、编码器数据采集和输入输出控制等。上位机使用笔记本电脑,用于进行视觉传感器图像采集与处理、以及三自由度运动插补计算。为了跟踪运动物体的方位,使其始终处于图像中心位置,使用插补算法,计算每个自由度的关节变量。最后,通过以太网通信,将计算值传递给PLC,控制转台的运动,并返回编码器数据。为了便于调试,分别使用电子手轮、无线遥控手柄进行精确、粗略手动控制,并使用触摸屏进行控制参数设置和运动状态监测。该转台既是教学、科研实验台,同时也是一款具有实用价值的机电产品。

三、转台在机器人实验教学中的应用

为了配合机器人本科课程教学,结合开放式可升降双轴随动转台的功能和特点,开展了以下机器人实验教学内容。

1.底层运动控制实验。使用PLC进行转台的底层控制系统设计,绘制电气控制原理图。使用顺序控制设计法,编写相应的控制程序,进行转台运动控制实验。学习用于控制步进电机、直流伺服电机的PLC程序设计及相关运动功能模块。进行电机的位置、速度控制实验和PID参数调整实验,设计相应的手动输入装置和人机交互装置。

2.传感器实验。内部传感器实验:使用光电编码器测量电机转角。利用PLC的高速脉冲输入端口和程序中的高速脉冲计数器,进行升降、偏航和俯仰电机对应的编码器脉冲数据采集和处理。另外,为了精确测量转台每个转轴的零点位置,通过增加使用增量式光编码器,检测编码器的Z信号,设计相应的零点检测程序,进行转台自动回零点实验。外部传感器实验:使用视觉传感器进行运动物体测量。在转台的U形架上安装视觉传感器,使用笔记本电脑进行图像采集和处理,进行计算机视觉算法实验,包括物体颜色识别、边缘轮廓提取和中心位置提取等,从而检测视角范围内运动物体的位置。

3.机器人控制实验。研究机器视觉算法和多轴协调运动控制,进行运动物体检测与跟踪实验。多轴协调控制实验:在使用手动方式控制转台运动时,升降、偏航、俯仰运动各自独立进行。为了让转台上安装的传感器或末端执行器能够在三维空间中任意运动,在笔记本电脑上进行软件编程,协调控制升降、偏航和俯仰电机的运动。分别进行双轴旋转协调控制和三轴协调控制实验,实现多轴运动插补控制。运动物体检测与跟踪实验:将具有显著颜色或几何形状特征的物体放在转台前方,通过手拿该物体任意运动,使用视觉传感器检测该物体,计算该物体的位置和运动速度,然后使用插补算法计算转台每个转轴的角度。将转台每个转轴的转角、转速信号通过以太网传送给底层控制器,由PLC分别控制转台的每个转轴运动,从而使视觉传感器始终对准该运动物体的中心位置,实现自动跟踪功能。上位机控制软件设计实验:在笔记本电脑上进行Windows程序设计,进行检测、路径规划和插补计算,通过以太网通信将控制数据发送给底层控制器,并返回编码器测量值,监控转台的实际运动情况。设计图形化软件界面,模拟转台的三维动态变化过程。本科生通过参加转台实验,进行转台的控制系统和软件设计,可以从系统的角度理解如何自动控制机械部件的运动,并利用外部传感器实现完整的闭环控制。本文设计的基于视觉传感器的运动物体检测与跟踪,仅是转台的典型应用示例。学生只要获得底层运动控制器的通信接口规范,即可进行不同用途的应用开发。因此,该转台可以锻炼学生的逻辑思维、系统性思维和发散思维能力,培养学生解决复杂工程问题的能力。

四、结论

针对机器人课程教学和实验过程中系统性不强、联系不紧密等问题,设计了一款开放式可升降双轴随动转台,通过在转台上安装视觉传感器,实现运动物体检测与跟踪功能。该转台可以提供底层运动控制、传感器实验和机器人控制实验,适用于本科生机器人实验教学,具有很好的开放性和推广价值。

参考文献:

[1]雷静桃,刘亮,张海洪.“机器人学”课程教学改革与实践.实验室研究与探索,2013,32(5).

[2]郭艳婕,桂亮,金悦.基于本科生的机器人实验教学的实践与探索.实验室科学,2015,18(1).

[3]容爱琼.“项目式”强化训练的机器人实验教学方法.教育教学论坛,2016,(8).

[4]薛文平,李康吉.《工业机器人》实验教学的改革与实践.2014,12(1).

计算机视觉行业研究范文1篇9

【关键词】计算机;视觉系统;框架构思

在现代计算机技术的支持下,对人类视觉功能进行模拟的计算机系统被称为计算机视觉系统,因为视觉系统本身兼具科学性和应用性,所以计算机视觉系统本身既具有科学学科的特性又具有工程学科的特性。对其的研究不仅能够进一步了解人类本身,而且能够在工业生产领域发挥更大的作用。

1计算机视觉系统现有理论框架

1.1计算机世界理论框架

20世纪80年代,麻省理工学院教授Marr在视觉理论研究领域获得突破,提出了利用计算机实现视觉能力的理论框架――计算机视觉理论,这一理论主要特点是以现代信息处理的方式对人类视觉能力作用机制进行了分析,并以人类的视觉能力为基础在计算机技术的支持下形成了三个不同的计算机层次。分别是计算机理论层次、表示层次和算法层次。这三个层次分别对应着人类对视觉信息进行处理的三个环节,通过各个环节的仿生设置,计算机视觉系统就能够将初步的视觉处理能力赋予计算机。这一理论中的核心是计算机理论层次,Marr认为人类的视觉能力主要是从图像中建立物体形状和位置的描述,所以在这一层次中设计者设计的主要环节是从初步获取的二维图像中提取和细化物体的三维结构和位置,并将这些信息在一个二维平面上反映出来,即三维重建。

1.2基于知识的视觉理论框架

基于知识的视觉理论框架最早产生于20世纪90年代,最早的提出者是Lowe。认为在人类的视觉能力发挥过程中,对三维物体的实际测算是不必要的,人类的视觉能力与三维测算能力没有直接的关系,虽然使用三维测算技术也能够实现计算机视觉系统的功能,但并不是对人类视觉功能的模仿。Lowe认为在人类的视觉活动中,会将三维物体看成二维物体,也会将二维物体看成三维物体。这种现象本身并不是偶然性的,而是一种视觉作用机制的必然。既然人类肉眼能够借助一定的作用机制和处理能力实现二维的三维化,在计算机视觉系统中就完全有可能设计出这种对人类肉眼直接模拟的机制。以感知系统感知物体的二维特性,并在其基础上直接生成三维图像,而不需要借助复杂的测量过程。

1.3主动视觉理论框架

主动视觉理论是在现有计算机理论的基础上形成的新型理论框架,是根据人类视觉功能实现的主动性提出的。在人类实现视觉功能的过程中,人类的视觉系统并不是被动的,而是会根据视觉系统的要求调动身体的其他部位进行配合的、具有主动性的,所以在人类视觉功能的发挥过程中,视觉系统是具有主动性的,人类视觉系统的视角、关注点都会是动态变化的。

基于这一理论,主动视觉理论框架认为人类的视觉活动是一种“感知――动作”过程。根据这一原则,主动视觉理论框架认为计算机视觉系统并不需要精准的三维测算系统。而应该以计算机视觉获取系统为核心,设置主动的视觉系统。这一理念在实际的应用中主要通过对图像获取系统技术参数的调整和控制来实现,例如摄像机的位置、取向、焦距、光圈等,通过对这些参数的调整图像信息获取系统就能够从不同的视角对物体进行观察,进而获取物体的三维图像信息。

2计算机视觉理论框架中存在的问题

计算机视觉理论框架的产生极大的支持了计算机视觉系统的研发工作,但是在计算机视觉系统的实际研发工作中,也逐渐暴露出了计算机理论框架的缺陷。当前主流的计算机视觉系统框架中,计算机视觉理论是最早产生的也是唯一一种被动的计算机视觉技术。在其理论系统中更多的强调人类视觉系统的测算能力,而没有意识到人类的视觉系统是一种主观性很强的、目的性很强的信息获取系统,完全建立在测算基础上的计算机视觉理论框架是不必要的。

基于知识的理论框架,认为人类视觉系统的功能实现主要环节是反馈,强调了人类视觉活动中主观意识的指导作用。但是它过于强调系统的目的性和主观性,完全否定了计算机视觉理论,认为人类视觉系统是个完全脱离计算机的认识过程,这种认识显然是错误的,在判断物体尺寸大小、距离远近时,测算无疑是极为必然的。

主动视觉理论并不完全排除三维重建,认为计算机视觉系统的三维重建应该建立在图像获取系统的主动性上。通过改变图像获取摄像机的角度、参数对时间、空间和分辨率等进行有选择的感知,解决了计算机视觉系统认知过程中的不稳定问题,降低了计算机视觉系统实现的难度。但是在其理论框架内部缺乏主观、高层的指导,从整体上看并不完善。

3计算机视觉系统框架的新构思

在计算机视觉系统的研究领域,三种理论构建各有优劣。但是无疑反应了当前计算机视觉系统研发的主流思想,因此计算机视觉系统框架的新构思应该在其基础上进行,致力于克服各个理论的缺点。综合比较三种理论框架,笔者认为计算机视觉理论虽然存在某些问题,但是从整体上看这一理论框架是最具实践性和操作性的,其存在的问题完全可以借助其他理论框架加以解决,因此笔者以计算机视觉理论为主体,结合基于知识的视觉理论和主动视觉理论,提出一个更加完善和通用的计算机视觉系统构架。

计算机视觉系统视觉功能实现的主体结构还是建立在计算理论结构的基础上的,将计算理论框架中的早期视觉处理环节分为图像预处理、图像分割和二维模式识别两个部分,因为图像的预处理是在平面图像基础上的简单处理,不需要主观主导意识和目的性的参与,同时图像分割和二维模式识别能够最大限度的提升后继图像处理的效果。

在早期处理完成以后,后继的中后期处理还是分别情调了二维模式识别和三维模式识别,虽然这两种模式本身的识别原理是一样的,但是其面对的对象不同,物体的模型也不同。一般来讲,在我们的世界中二维信息具有很强的重要性,图形、文字、指纹等关键二维信息在通常情况下作用更大、应用范围更广,所以计算机视觉系统矿建的新思路中,要对二维信息进行进一步的处理。

模型库提供具体物体模型的表示。知识库不但要对物体进行抽象表示而且还要对抽象知识进行推理。人类经验的积累和知识的获取是通过学习而得到的,所以加人模型库、知识库管理,并让其从输出结果中进行学习。这将使模型库和知识库更加丰富和完善。

视觉活动本身是带有目的性的,所以在有些时候视觉系统的应用确实需要视物体的实际情况来决定,有时只需识别场景中存在的是什么物体或某物是否存在,而不要求定量恢复场景中的物体。因此,在计算机视觉系统中引人视觉目的来判断输出是否满足要求。同时,用视觉目的对图象分割和二维模式识别、中期视觉处理、后期视觉处理和三维模式识别加以控制。如果需要三维重建则由主动视觉控制成象来获得景物更完整的信息。

计算机视觉系统框架是支持计算机视觉系统实现的重要基础,所以在计算机视觉系统的研发、设计工作中,对理论框架的研究具有鲜明的现实意义,本文简单介绍了现有框架思想,并分析了其各自的优缺点,最后再这些理论框架的基础上形成了计算机视觉系统框架的新构思。认为计算机视觉系统构架应该以计算机理论为基础,以视觉活动的主观性和目的性为指导,以具体的视觉实现形式为方法。

【参考文献】

计算机视觉行业研究范文篇10

Abstract:Duetotheapplicationofvisualnavigationtechnologyisbecomingmoreandmorepopular,andtherefore,itisnecessarytostudyvisualnavigationkeytechnologiesandapplications.Inthispaper,digitalimageprocessingtechniquesandlocationandtrackingtechnologiesarestudiedindetails,andcorrespondingly,therelevantapplicationisintroduced.

关键词:视觉导航;图像分割;定位跟踪

Keywords:visualnavigation;imagesegmentation;positiontracking

中图分类号:TP39文献标识码:A文章编号:1006-4311(2010)25-0171-01

0引言

伴随着电子技术、计算机技术工业控制技术等的发展,机器智能移动技术也得到了很大的发展。机器智能移动技术的关键部分就是视觉导航技术。视觉导航技术是在机器视觉的基础上发展起来的。但是与机器视觉又有区别,主要表现为在机器视觉的基础上增加了定位跟踪技术,于是就产生了视觉导航技术。通常一个视觉导航系统由视觉信息采集部分、视觉信息处理部分及导航跟踪部分三大部分构成[1-2]。三部分有机结合,完成视觉导航,具体的工作原理如图1所示。其中视觉信息采集部分主要是完成对机器将要经过路线上的图像的采集,这个过程主要由摄像机(CCD)完成;视觉信息处理主要是对采集到的图像进行增强、边缘提取和分割等;利用一定的跟踪算法,实现机器的智能跟踪,即完成机器的导航。

1视觉导航的主要关键技术

构成视觉导航系统的四个部分中,其中的视觉信息处理部分和智能定位与跟踪部分是系统的核心,这两个部分用到的技术是视觉导航系统的关键技术。这些关键技术主要包括两大方面,即图像处理技术和智能定位与跟踪技术。

1.1像处理技术在图像采集时,图像噪声的大小,摄像角度上的光线,非理想话图像处理等都会使图像质量变差[3]。再加上道路两旁及道路本省背景的复杂性,要把有用的图像信息提取出来难度很大。因此,为了更好的提取出对导航有用的图像信息,需要对图像进行处理。图像处理主要是对图像进行分割,把机器能经过的道路与路障分开来。图像分割主要包括边缘提取和阈值分割。

边缘提取。边缘主要是指图像局部变化最明显的部分,边缘是划分目标与目标、目标与背景、区域与区域的标志。图像边缘的检测主要就是利用图像像素点灰度值的不连续性,将目标和背景等不同的区域分开来。常用的边缘提取方法是模板法。模板也称为边缘检测算子,模板的数学基础的图像像素点的梯度变化。

阈值分割。阈值分割的基本原理图像中不同像素点的值不同,通过选取合适的阈值,就可以将图像划分为不同的部分。阈值分割中最典型的就是图像的二值化。图像二值化的方法很多,主要有整体阈值法、局部阈值法和动态阈值法。

不论是图像边缘的提取,还是图像的二值化。其对图像处理的效果,关系到后续的机器智能定位与跟踪。视觉导航能否实现,图像处理是关键因素之一。因此,在图像处理时一定要选择合适的图像处理算法,为后续视觉导航的实现服务。

1.2智能定位与跟踪视觉导航技术中的另一关键技术――智能定位与跟踪。智能定位与跟踪主要是完成对安装了视觉导航系统的机器移动路径及路径上的障碍物的识别,使机器能够实现智能移动。常用的路径与障碍物识别方法有基于道路模型的路径识别方法、基于Hough变换的路径识别、基于LVQ神经网络的路径识别方法。

2视觉导航技术的应用

由于视觉导航技术的发展越来越成熟,其使用也越来越广泛。在工农业生产等各个不同的领域都有所应用。视觉导航技术的应用,给这些领域的生产工作带来了极大的便利,大大提高了机器的工作效率。

2.1视觉导航技术在农业生产中的应用。视觉导航技术在农业生产中的应用,主要表现为农业机械的导航。视觉导航技术用于农业机械的导航,主要是帮助农业机械把目标物与周围的背景区分开来。07年,伦冠德[11]利用图像增强技术与Hough变换相结合,对传统的导航模型存在的不足进行了改进研究,研究结果表明,新方法对导航路径的识别由于传统的模型导航;09年,杨为民等将动态窗口处理技术与Hough变换相结合,对农业机械中的视觉导航系统进行了改进,并取得了较好的导航效果等。

2.2视觉导航技术在机器人领域的应用目前世界上许多危险环境下的作业,都是由机器人完成的。比如机器人用于深海探测。机器人要自动到达既定的探测,而不因为碰到障碍物损坏,这就要求机器人必须要有视觉导航功能。05年,周庆瑞等对视觉导航技术在机器人中的应用进行的研究。利用图像的深度信心,再结合相应的校正算法与跟踪技术,实现了机器人的智能移动。

2.3视觉导航在移动车辆中的应用。具有智能导航功能的移动车辆是当今车辆研究领域的前沿。智能车辆的导航主要是完成环境感知、规划决策和辅助驾驶等功能,这些功能的实现需要计算机视觉技术、控制技术和电子技术等的支撑。其中最重要的还是视觉导航技术。如09年,钱云等研制的基于视觉导航的智能车货物搬运系统,充分利用的图像的边缘提取技术,对智能车要经过的路径进行识别,并且取得了较好的效果。

从上面三个方面的分析研究表明,视觉导航技术在各个领域中的具体应用不同,但所使用的关键技术基本是相同的。主要都是对图像信息的处理和对运动路径的定位于跟踪。

3小结

随着机器视觉产品与我们的生产和生活越来越近,很有必要对视觉导航技术进行必要的研究及应用分析,以便人们能够更好的理解视觉导航产片的工作原理与功能。

参考文献:

[1]吴琳.计算机视觉导航综述[J].人工智能及识别技术.

计算机视觉行业研究范文

1、引言

随着经济的迅猛发展,汽车的迅速普及,根据社会对汽车产业的要求,车辆的各方面指标都受到人们越来越多地关注,汽车涂装过程中的瑕疵直接影响汽车的外观质量,因此如何在生产过程中利用计算机视觉检测技术检测出并及时修补汽车涂装过程中产生的瑕疵就成了首要的任务[1]。本文的研究内容是首先了解计算机视觉检测系统的工作原理,汽车涂装瑕疵的种类,然后结合两者的特点,应用计算机视觉检测系统检测汽车涂装瑕疵。该研究的价值在于两方面:①对于汽车生产的自动化和过程自动化,计算机视觉是现实真正意义的自动的基础和一种重要的质量控制的手段;②对于汽车涂装瑕疵的修补可以提高其修补的精度。

2、汽车涂装瑕疵的计算机视觉检测系统

汽车涂装瑕疵检测系统主要包括照明系统、图像采集卡、CCD摄像机、计算机以及软件处理等几个主要部分[2]。综合计算机视觉检测系统的构成和线结构光测量的原理,基于计算机视觉的汽车涂装瑕疵的检测系统大致是这样构成的:将线结构光投射到被测物上,所形成的光斑作为传感信号,用CCD摄像机采集光斑图像,采集到的图像信号被传输到计算机,根据图像处理和计算机视觉检测系统的处理产生处理结果,返回到涂装生产线,对车身的涂装进行修正,从而提高产品质量。汽车涂装瑕疵的视觉检测系统如图1所示[3]。

3、计算机视觉检测

计算机视觉是计算机对图像进行自动处理并报告“图像中有什么”的过程,也就是说它识别图像中的内容。图像中的内容往往是某些机器零件,而处理的目标不仅要能对机器零件定位,还要能对其进行检验。计算机视觉系统基本原理:机器视觉系统通常采用CCD相机摄取图像,将其转化为数字信号,再采用先进的计算机硬件与软件技术对图像数字信号进行处理,从而得到所需要的各种目标图像特征值,并在此基础上实现模式识别、坐标计算、灰度分布图等多种功能。计算机视觉系统能够根据其检测结果快速地显示图像、输出数据、指令,执行机构可以配合其完成指令的实施。计算机视觉系统主要由图像获取、图像分析和处理、输出显示或控制三个功能模块组成[4]。视觉检测按其所处理的数据类型可分为二值图像、灰度图像、彩色图像和深度图像的视觉检测。另外,还有X射线检测、超声波检测和红外线检测。一个完整视觉检测系统包括:图像采集、图像分割、零件识别、模型匹配和决策判断。Newman[5]等描述了利用深度图像进行零件检测的AVI系统,具有一定的代表性。一个典型的AVI系统如图2所示。

4、汽车涂装瑕疵的检测算法

由于汽车涂膜中一些缺陷的边界比较模糊,例如:气泡、爆裂气泡孔、气泡针孔、抽缩等等。边缘处灰度变化很小,直接用传统的微分边缘检测算法无法有效的检测出来。所以对缺陷模糊边缘的检测成为了算法的关键[6]。本文介绍了基于线结构光的边缘检测方法。汽车涂装表面被光源投射器发出的线结构光照射,反射出的图像被CCD摄像机所接收传输到计算机视觉检测系统中。若涂装表面没有瑕疵,则产生图3的图像。若涂装表面有瑕疵,则产生图4的图像[7]。

计算机视觉行业研究范文篇12

1计算机视觉的概述及基本体系结构

1.1计算机视觉概述

通过使用计算机和相关设备,对生物视觉进行模拟的方式,就是计算机视觉。对采集到的图片或视频进行相应的技术处理,从而获得相应的三维信息场景,是计算机视觉的主要任务。计算机视觉是一门学问,它就如何通过计算机和照相机的运用,使人们获得被拍摄对象的数据与信息所需等问题进行研究。简单的说,就是让计算机通过人们给其安装上的“大脑”和“眼睛”,对周围环境进行感知。计算机视觉是一门综合性学科,在各个领域都有所作为,已经吸引了各个领域的研究者对其研究。同时,计算机视觉也是科学领域中一个具有重要挑战性的研究。

1.2计算机视觉领域基本体系结构

提出第一个较为完善的视觉系统框架的是Marr,他从信息处理系统角度出发,结合图像处理、心理物理学等多领域的研究成果,提出被计算机视觉工作者基本接受的计算机视觉系统框架。在此基础上,研究者们针对视觉系统框架的各个角度、各个阶段、各个功能进行分析研究,得出了计算机视觉系统的基本体系结构,如图1。

2计算机视觉在交通领域的应用

2.1牌照识别

车辆的唯一身份是车辆牌照。在检测违规车辆、稽查被盗车辆和管理停车场工作中,车辆牌照的有效识别与检测具有重要的作用和应用价值。然而在实际应用工作中,虽然车牌识别技术相对成熟,但是由于受到拍摄角度、光照、天气等因素的影响,车牌识别技术仍需改善。车牌定位技术、车牌字符识别技术和车牌字符分割技术是组成车牌识别技术的重要部分。

2.2车辆检测

目前,城市交通路口处红绿灯的间隔时间是固定不变的,但是受交通路口的位置不同、时间不同的影响,每个交通路口的交通流量也是持续变化的。此外,对于某些交通区域来说,公共资源的配备,比如交通警察、交通车辆的数量是有限的。如果能根据计算机视觉技术,对交通路口的不同时间、不同位置的交通情况进行分析计算,并对交通流量进行预测,有利于为交通警察缩短出警时间、为交通路口的红绿灯根据实际情况设置动态变化等技术提供支持。

2.3统计公交乘客人数

城市公共交通的核心内容是城市公交调度问题,一个城市如何合理的解决公交调度问题,是缓解城市运力和运量矛盾,缓解城市交通紧张的有效措施。城市公交调度问题,为公交公司与乘客的平衡利益,为公交公司的经济利益和社会效益的提高做出了巨大的贡献。由于在不同的地域、不同的时间,公交客流会存在不均衡性,高峰时段的公交乘客过多,平峰时段的公交乘客过少,造成了公交调度不均衡问题,使有限资源浪费严重。在计算机视觉智能公交系统中,自动乘客计数技术是其关键技术。自动乘客计数技术,是对乘客上下车的时间和地点自动收集的最有效的技术之一。根据其收集到的数据,从时间和地点两方面对客流分析,为城市公交调度进行合理的安排。

2.4对车道偏离程度和驾驶员工作状态判断

交通事故的发生率随着车辆数量的增加而增加。引发交通事故的重要因素之一就是驾驶员疲劳驾驶。据相关数据显示,因车道偏离导致的交通事故在40%以上。其中,驾驶员的疲劳驾驶就是导致车道偏离的主要原因。针对此种现象,为减少交通事故的发生,计算机视觉中车道偏离预警系统被研究开发并被广泛应用。针对驾驶员眨眼频率,利用计算机视觉对驾驶员面部进行图像处理和分析,再根据疲劳驾驶关注度与眨眼频率的关系,对驾驶员的工作状态进行判断。此外,根据道路识别技术,对车辆行驶状态进行检测,也是判断驾驶员工作状态的方法之一。这两种方法,是目前基于计算机视觉的基础上,检测驾驶员疲劳状态的有效方法。

2.5路面破损检测

最常见的路面损坏方式就是裂缝。利用计算机视觉,及时发现路面破损情况,并在其裂缝程度严重之前进行修补,有利于节省维护成本,也避免出现路面坍塌,车辆凹陷的情况发生。利用计算机视觉进行路面检测,相较于之前人工视觉检测相比,有效提高了视觉检测的效率,增强了自动化程度,提高了安全性,为市民的出行安全带来了更高保障。

3结论

本文从计算机视觉的概述,及计算机视觉基本体系结构,和计算机视觉在交通领域中的应用三面进行分析,可见计算机视觉在交通领域中的广泛应用,在交通领域中应用的有效性、显著性,以此可得计算机视觉在现展过程中的重要性。随着计算机视觉技术的越来越成熟,交通领域的检测管理一定会加严格,更加安全。

作者:夏栋单位:同济大学软件学院

参考文献:

[1]段里仁.智能交通系境在我国道路空通管理中的应用[J].北方工业时报,2015(06).

[2]王丰元.计算机视觉在建筑区间的应用实例分析[J].河北电力学报,2015(04).

[3]李钊称.主动测距技术在计算机数据分析中的作用探析[J].计算机应用,2015(08).

[4]马良红.三维物体影像的摄取与分析[J].中国公路学报,2014(05).