首页 > 文章中心 > 人脸识别的核心技术

人脸识别的核心技术

开篇:润墨网以专业的文秘视角,为您筛选了八篇人脸识别的核心技术范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

人脸识别的核心技术范文第1篇

其实在央行下发个人征信牌照准备通知前一天,在国务院总理的见证下,腾讯微众银行1月4日放出了第一笔3.5万元的贷款。该笔贷款就通过人脸识别技术和大数据信用评级后,计算出贷款金额。

10年前,腾讯为了发展电子商务推出网络支付品牌财付通,目前,除了互联网支付机构财付通外,腾讯还推出了微信支付及手Q支付;网络借贷也已经由腾讯参股的微众银行、财付通团队和Q钱包团队推出了微粒贷和微证券;此外,腾讯在投资或参股一些金融业务。可以说,10年来腾讯一直在互联网金融领域进行摸索和尝试,其中征信是至关重要的一环。

早在两年前,腾讯就开始进行征信业务的探索,腾讯征信有限公司是隶属于腾讯集团的征信牌照主体机构,作为独立第三方提供面向个人客户的征信产品,与包括QQ、财付通等腾讯其他部门或子公司签订协议。

目前来看,腾讯征信的产品有反欺诈产品和信用评级产品。反欺诈产品包括人脸识别和欺诈评测两个主要的应用场景。人脸识别主要应用在身份核实的相关场景,目前已应用在腾讯的微证券等产品上。欺诈评测则是对客户的欺诈风险提供一个等级评估,等级越高提示欺诈风险越大。而信用评级产品是运用于手机Q Q的“7星”信用报告,亮星颗数越多代表信用越良好。

腾讯征信总经理吴丹把腾讯征信的优势总结为两点,数据和技术。“我们有很丰富的线上行为表现,我们可以拿不涉及隐私方面的数据来做用户的信用评估。在技术方面不仅有传统的统计分析的技术,也有一些新的深入学习的技术。”

我就是我,你就是你

信用风险的第一步是欺诈风险,必须先确认身份再评估其信用风险。金融机构原来的身份确认必须由审核的业务员当面验证,人脸识别身份验证提供了另外一种可能。腾讯征信的人脸识别主要包括扫描身份证、人脸识别鉴定和活体识别。

打开手机上的应用,系统通过OCR技术扫描二代身份证的正反两面,自动抓取用户身份信息;然后,用户将脸部对准屏幕上的人脸取景框,系统自动拍摄视频和照片;接着,用户面对摄像头,按照要求读出系统随机给出的一串数字。三步完成后,系统会给出摄像头前的人与身份证上是不是同一个人的判断以及评分。

据吴丹介绍,整个人脸识别的流程中,需要通过两个验证:一是生物活体检测,通过唇语和声纹等方式验证摄像头前是一个真实的人;二是人脸成像识别,把摄像头拍摄的照片、身份证照片,和公民身份证号码信息查询中心的照片进行相似度对比,判断是否同一个人。

腾讯的人脸识别技术由财付通和腾讯优图合作完成,财付通负责流程设计和金融等场景应用,优图团队负责照片比对基础技术。该项目在2014年年初提出,经过3个月推出第一个版本。此后,不断更新,今年初,总理考察微众银行看到的已经是成熟版本。

据世界人脸专业评测(LFW)评测,腾讯优图提交的在无限制条件下人脸验证测试识别准确率为99 .65%,打破了之前Facebook,Google等团队创造的纪录。

腾讯优图于2012年年初成立,是隶属于腾讯社交网络事业群的技术研发团队。QQ空间的照片标注、天天P图这些腾讯体系的图片比对应用都是这个团队的成绩。腾讯优图研发中心总监黄飞跃介绍,人脸识别技术能够应用的关键核心在于三点:图像识别核心技术能力、足够庞大丰富权威的图像样本数据库和广泛灵活便捷的应用场景。

目前,腾讯征信已经和公安部所属的全国公民身份证号码查询服务中心达成人像比对服务的战略合作,可以7×24小时接入公安部查询服务中心的数据库。另外,经过数年准备,腾讯采集标注了海量生活照训练样本数据,目前拥有全球最大的黄种人人脸模型训练样本库。

腾讯优图团队每天负责处理亿级数量的图片,并自创了深度学习的模型、框架,积累了海量的数据和训练的模型。开发模型应用时,训练样本经过脱敏处理,腾讯优图不需要知道这个人叫什么名字,手机号是多少,只知道这是他可以用来识别的照片。

据了解,人脸识别服务已经进入实际应用阶段,根据实际互联网金融场景测试,自拍身份证对比可以达到万分之一错误率以下,通过率95%以上。

社交数据贡献超预期

目前,腾讯拥有8亿QQ账户、超过5亿的微信账户、超过3亿的支付用户以及其他多种服务上聚集的庞大用户。腾讯征信的数据来源,涵盖了上述用户在线、财产、消费、支付、社交、游戏等情况。

2014年,美国政策与经济研究委员会(PERC)对于非金融信息在信贷决策中作用的研究初步发现,社交信息对于判断借款人的还款意愿和能力暂无预测力。但是腾讯通过数据挖掘和实际验证认为,社交数据的有效性可能会超出预期。

“社交有没有作用,在我们这已经不是问题了。”吴丹说,

吴丹举例说,借5000元或10000元,传统上的风险评估的方法非常有用,如果只借几百块钱,大家的还款能力基本都没有问题,发生违约的情况更多是在还款意愿上,这说明从过往的还款历史或者收入情况来说,风险评估的方法不一定那么有效。“我们在模型里加入社交的因素以后,对这个数据模型有20%到25%的提升,在针对小额的模型上面,社交的作用更大,基本上大部分都是社交方面的变量。”

吴丹介绍,人脸识别技术扫描用户身份证后,腾讯征信不仅可以得到身份证本身和公安部的数据,还可以知道其在腾讯体系内的QQ、微信等信息。腾讯通过财付通的第三方支付账户和绑定的银行卡账户,把用户的身份证、QQ、微信、手机号、银行卡、财付通账户多重信息进行了关联和匹配,得到任何一种信息,都可以关联到用户的其他信息。征信体系将利用大数据平台,在不同数据源中采集处理相关行为和基础画像等数据,并利用统计学、传统机器学习的方法,形成个人征信报告。

个人征信报告主要由用户在微信、手机QQ支付以及消费偏好;在腾讯产品内各资产的构成、理财记录‘财付通账户是否实名认证和数字认证;消费贷款、信用卡、房贷是否按时还等4个维度构成。其运用于手机QQ上将采取打星的形式,共7颗星,亮星颗数越多代表信用越良好。“采取星级而不是业内普遍的评分也是基于腾讯用户的实用习惯,他们更习惯星星钻石而不是具体分数。”吴丹说。

吴丹直言:“如果我们的征信评价与央行是一致的,这说明我们的信用风险评估是准确的;如果不一致,这也是我们的价值所在――提供了另一个独特的信用评估体系。”

人脸识别的核心技术范文第2篇

未来三年内,我国科学家将“冲击”百万亿次超级计算机,从而全面刷新目前国产高性能计算机的性能,实现新的飞跃。在“曙光”高性能计算机暨我国高性能计算机产业走过10周年之际。中国科学院计算所所长李国杰院士日前表示,计算所和曙光公司正在酝酿冲击百万亿次超级计算机,“争取在2008年奥运会前推出。”同时,继龙芯1号和2号芯片后,我国科学家目前正在研制性能更高的“龙芯”芯片。“如果性能‘赶’上来了,到时候就用‘龙芯’芯片;没有赶上,就考虑用别的。”李国杰说。“冲击百万亿次计算机的技术准备工作已经开始,但计算速度并不是最重要。”李国杰说,下一步,高性能计算机发展的关键是应用和普及,“希望越来越多的高校把高性能计算当成基础课,更希望越来越多的行业和产业用上高性能计算,并且敢用国产超级计算机。”2004年,由中科院计算所和曙光公司等共同研制的曙光4000A超级计算机以每秒超过10万亿次的峰值运算速度进入世界超级计算机十强,并在上海超级计算中心成功运转至今。

清华大学研制成功多模生物特征身份认证系统

清华大学电子工程系自主研发的“THID多模生物特征身份认证系统”,前不久通过由教育部组织的鉴定。鉴定专家认为,该系统融合了人脸、笔迹、签名以及虹膜等最重要的几项生物特征的身份认证,在技术上位居世界前列,具有重大的理论和应用价值。

网络信息化时代的一大特征就是身份的数字化和隐性化,如何准确鉴定一个人的身份,保护信息安全,是信息化时代必须解决的一个关键问题。生物特征识别技术指通过计算机,利用人体所固有的生理特征或行为特征来进行个人身份鉴定。常用的生物特征包括:脸像、虹膜、指纹、掌纹、声音、笔迹等。

在国家自然科学基金项目的支持下,清华大学电子工程系智能图文信息处理研究室长期致力于生物特征识别研究,并取得了若干世界领先的创新研究成果。在2004年国际摸式识别会议组织的国际高水平火腿验证国际评测中,清华大学研发的THFacelD,以全部三项评测均第十一,获全面性能最优成就奖;在2004年国家863人脸识别验证评测中,该系统的各项指标也在同类产品中名列前茅。

一般情况下,单一生物特征的识别精度难以达到身份认证的要求,因此多模生物特征身份认证的融合是许多研究者追寻的目标。清华大学电子工程系研发的多种模式生物特征融合的体系和框架;包括友好方便的人脸识别验证,具有法律效力的笔迹和签字的识别,具有最高鉴别能力的虹膜身份认证,以及各种生物特征融合的身份认证,极大地提高了身份识别认证的准确度,为生物特征身份认证的实际应用打下坚实的基础。

我国科学家率先开发出主动防御计算机病毒技术

长期以来人们对于计算机病毒只能被动防御的局面已被改变。由我国计算机反病毒领域领军人物刘旭和他的技术团队组织研发的微点主动肪御软件,已戒功实现单机版主动防御计算机未知病毒作业,成为由中国科技人员自主创新开发出的世界上首个从根本上防止计算机病毒危害的软件产品。为考核刘旭和他的技术团队研发的世界首创主动防御计算机病毒技术,科技部火炬中心7月中旬组织计算机专家对微点主动防御软件的核心技术进行了技术质询。经专家组讨论认为:“软件采用行为识别和特征识别技术,实现了对计算机病毒、蠕虫、木马等恶意攻击行为的主动防御,较好地解决了现有产品或系统以被动防御为主。识别未知政击行为能力弱的缺陷,在技术上有较大创新。”

人脸识别的核心技术范文第3篇

时下,图像识别与处理技术应用之广泛已渗透至各行各业,从军事及公安刑侦,到生物医学图像识别,再到机器视觉领域,图像识别技术无所不在。

北方工业大学教授王一丁已经在智能识别和图像处理领域潜心研究多年,从基础研究到转化应用,他在身体力行地为这一领域发展默默献出自己的力量。

在尝试中突破与创新

2016年8月,2017年度国家自然科学基金资助项目“放榜”,由王一丁申报的“弱约束条件下的手背静脉身份识别研究”榜上有名,而这一项目是2011年国家自然科学基金课题“基于手背静脉的身份识别研究”的延续。

如今,手背静脉纹理身份识别作为生物识别技术新的发展方向,逐渐成为国内外身份识别系统的研究热点。“因手背静脉纹理特征的唯一性、稳定性等优点,以及较为突出的成本优势和人机交互的友善性,手背静脉纹理身份识别具有广阔的应用前景。王一丁构造高精度手背静脉识别安全认证的理论框架,从图像预处理、特征构造、局部与全局特征融合等方面进行突破、进一步提高现有手背静脉识别的精度;研制低成本高质量的具有自主知识产权的手背静脉图像采集设备,进行“不同种族、年龄、性别等”情况下的手背静脉数据库的采集工作。目前,手背静脉识别系统取得国家发明专利4项授权,并在国际刊物、国内核心刊物及国际会议上30余篇。

除了基础理论的构建,在应用方面,王一丁也取得了丰硕成果。应用于天安门广场流动人口电子信息化管理的人像对比系统,曾是一个没有人敢接手的项目。“那时我还在中国科学院,之前没有接触过人脸识别技术,最后项目方找到了中国科学院。”初生牛犊不怕虎,王一丁想着“做成了就让他们拿去,做不成再说”,最后拍板接下了项目。结果第一期做完了,后来又做了第二期和第三期。目前,该系统建立了3万多人的人脸数据库,识别率大于95%,同时在北京北方国际射击场用于人员的身份管理。此外,王一丁还和英国合作“863”计划项目,研发人脸性别识别技术和超分辨技术,获得国家专利授权,并被公司成功实现商业化运营。

其实,人脸识别只是智能识别与图像处理技术的其中一种应用,在工业生产中,这项技术同样大有可为。清理铝电解过程中阳极碳碗槽中的“垃圾”曾是困扰铝厂生产的一大难题。因为“首先要找到需清理的部件的位置,然后让机器人过去把它清理干净。精确定位,需要测量导槽的角度、圆的位置和半径等,提取参数实际难度非常大。

青铜峡铝厂委托王一丁研发的铝电解阳极碳碗清理系统,正是为了解决了这一难题。基于计算机图像处理技术,系统成功解决了参数提取的难题,精准定位,现已成功应用在生产线上。该技术成为北方工业大学“十二五”的标志性成果。

王一丁研发的铜电解极间短路监测系统与上述系统一样应用于工业生产线,并实现了国内唯一。“系统有两项核心技术:一是精准定位电极的位置;二是温度的标定,对每一个电解池中的所有极板进行温度分析。”系y能够在生产过程中及时监控整个车间所有电解池状况,在电解铜过程中,使电能可以节省1%?2%,并及时发现和清除短路阴极,可以提高铜电解的效率,减少结晶和结粒,提高产铜品质。

此外,他还研发了可以实现真实网络环境中非对称数据条件下敏感图片识别的图文信息过滤系统,该系统误识率控制在4%以下,已成功应用到四川省公安厅和北京电信;基于定量遥感应用研究,提出了协同雷达信号处理和失配雷达信号处理的方法,解决了复杂背景下雷达反射信号定量测量的精度问题,先后主持了相关国家自然科学基金课题和国家“863”计划。同时,他还研发出了智能视频分析系统、医学图像分析系统等,并与北京301医院和安贞医院合作,制作三维展示软件,来指导医生做手术。

时不我待,只争朝夕。王一丁将智能识别与图像处理技术广泛地应用到各行各业,让学科的发展日益焕发出勃勃生机。

纸上终觉浅,科研需“躬行”

如今在图像识别领域大放异彩的王一丁,自幼喜欢建筑、绘画,曾经的梦想是当一名飞行员。1989年,王一丁参加高考,取得超出重点分数线40多分的好成绩。因为家庭与电子的渊源,于是选择了南京理工大学电子工程专业。

大学期间,王一丁如一棵小树苗般汲取着知识的阳光雨露,4年后以优异的成绩毕业。随后王一丁回到西安,进入中国兵器工业集团第206研究所,从事雷达方面的研发工作。

王一丁对在206所工作的日子记忆非常深刻,在他看来,那是他人生中“非常重要的时段”。“当时我负责雷达整个系统的调试。为了成功把雷达调试出来,我们每天晚上加班看图纸,看资料,把所有线路间的关系都理得很清楚。”实际工作提升了王一丁在技术掌控、组织协调等方面的能力,也让他认识到“纸上得来终觉浅”,科研需要不断实践。然而在实践过程中,也需要不断提升理论高度来应对新的难题。

为了“从实践回到理论”,1992年,王一丁考回南京理工大学攻读硕士和博士学位。1998年王一丁毕业后听从了导师的建议,“他建议我选学校,他认为我的性格比较适合做科研。”同时,“考虑到把一些军用的图像处理技术应用到民用领域”,他选择了当时在图像处理方面做得最好的清华大学做博士后研究。2000年博士后出站,王一丁进入中国科学院工作,后被北方工业大学引进任教。现在,王一丁任北方工业大学智能信息处理研究所常务副所长,是北方工业大学信息与通信工程一级学科责任教授。

作为一名教师,王一丁十分注重培养应用型创新人才,希望学生“学术能力和工程实践能力兼备”。“上半年我们会请一些专家来做报告,或举办学术竞赛进行学术交流;下半年举办科技竞赛活动,让学生做具体的科研项目,以project的方式来展示他们的产品,为参加全国研究生竞赛作准备。”如今,王一丁已经指导本科生获得全国移动通信大赛特等奖,研究生电子竞赛获得全国赛区三等奖,培养硕士和博士研究生30余名。

人脸识别的核心技术范文第4篇

关键词:人工智能;语音识别;图像识别;神经网络

0引言

伴随着经济的飞速发展与科技水平的不断提升,计算机技术的开发与应用的研究成为学者们关注的重点[1]-[2]。特别是在人工智能识别方面的研究越来越深入,其应用也越来越广泛。人工智能识别技术的应用,不仅提升了生产的效率,同时为人们的生产生活提供了方便[3]。针对此,本文在对人工智能识别技术进行介绍的基础上,对其关键性技术进行了分析,这对于提高人工智能识别技术应用水平具有重要的工程意义

1人工智能识别技术

1.1人工智能识别技术的定义

智能识别技术是以计算机系统、扫描设备、照相设备为基础设施,对目标的数据信息进行智能识别。当前的人工智能识别技术是从语音识别技术中逐步发展起来的。现在已经形成了人脸识别、图像检测、图像检索、目标跟踪、风格迁移等多项智能识别手段。这些智能识别技术的出现,提升了人们的生活质量,减小了人们的工作量、提高了生产生活小效率,对于推动我国社会主义现代技术的发展具有重要的意义。

1.2人工智能识别技术的研究现状

从目前的发展来看,我国已经在多个领域应用了人工智能识别技术。但在人工智能识别的核心技术上,仍然处于发展阶段。与国外其他发达国家相比,还未形成完成成熟的技术体系[4]。同时伴随着近几年各个国家之间加强了对人工智能识别技术的相互交流与渗透,使得我的人工智能的发展得到了新的发展机遇。在近几年的时间里,我国在人工智能的技术水平上不断提升,为人们的生活提供了便利,改善了人们的生活条件[5]-[6]。并且,我国相关科技管理部门加强了对人工智能识别技术的重视与相应资金上的投入。从目前来看,现阶段计算机人工智能识别技术的发展方向是解决应用过程中存在的各类问题以及对核心技术进行研发。

1.3人工智能识别技术的特点

人工智能识别技术在应用特点上具有高反应效率,高运算速度等特点,并且人工智能识别技术能够通过自我学习,达到能解决问题,能改造或创造,能做理论推演或理论研究的目的,在工程中,人工智能识别技术能够严格监控整个生产运行状态,如果一旦运行状态出现异常情况,就可以及时掌握故障信息反馈给维修人员,智能化的数据支持,也能给维修人员提供帮助,从而大大提高设备运行的状态稳定和安全。在实际生活中,图像识别与语音识别等人工智能识别技术的应用,能有有效的实现人与人之间信息调配和沟通,降低生活中资源浪费。因此,人工智能识别的成功应用,可以有效的解决人们在实际生产生活中遇到的问题。

2人工智能识别技术关键技术的运用

2.1语音识别

语音识别技术的研发,其核心是所采用的机械设备能够准确识别人类的语言,在此基础上开发人机语言交互技术也是其中的重要的一环。当前,基于语音识别技术的产品在不断的被研发普及。在各个领域得到了广泛应用。为人们的生活提供了便捷。语音识别技术在技术上是通过MFCC提取过程、预加重、分帧加窗、离散傅里叶变换、Mel滤波器组、Mel滤波器组、高斯函数gmm等在声控交换、语音通信识别、语音交流中的运用。在这个过程中,其预加重环节需要用到公式(1)进行处理:在整个语音识别过程中,要做到两点,其一是实现高效的语音沟通交流,第二方面是要保证通话的堡真性,从而保证人们在实际过程中有着良好的通话体验。

2.2图像识别技术

图像识别技术作为计算机人工智能技术的重要领域与分支。其核心是对图像进行相应的对象识别,以便区分出不同模式下的目标与对象。图像识别技术从发展上来讲,总共经历了三个阶段。分别为文字识别、图像处理与识别、物体识别。其通过对图像信息进行相应的处理分析,得到我们所需要的研究目标。发展到了今天,图像识别不仅仅是通过肉眼进行识别,同时借助计算机进行识别也是重要的识别手段。在识别原理上,计算机图像识别技术与人客户肉眼识别上是相同的。人类进行图像识别是根据图像本身具有的特征,将图像识别出来。当我们看到一张图片的时候,大脑会迅速反应出该相识的图片,并进行分类识别与存储记忆。人工智能图像识别技术是以图像特征为基础,关注每个图片的主要特征,并排除掉多余的输入信息,找到所需要的关键信息,分阶段的完成对图像信息的整理形成一个完整的直觉映像。在人工智能图像识别过程中,模式识别是关键,模式识别是对事物不同形式的信心进行分析处理,从而实现对一个事物或者现象的描述、辨别以及分类。如图1所示,为一个完整的图像识别过程。

2.3机器人技术

我国在进入信息化时代之后,机器人技术逐渐发展起来,并得到了广泛的应用。同时,为了满足时代的发展的需求,机器人技术已经逐渐成为一门学科。伴随着智能化技术的发展,人工智能识别技术与机器人技术的相互融合,使得机器人技术得到了飞速的发,推动了机器人行业的迅速发展。人工智能识别机器人在组成上包含内部信息以及外部信息传感器。其传感器包含了对视觉、听觉、触觉以及嗅觉等。除了感受器之外,他们号又要电动机、筋肉等主要部件组成的效应器,使得他们能够与外界充分的接触起来。从目前的技术发展来看,智能机器人在组成上至少需要感觉、反应以及思考三要素,其原理图如图2所示。

2.4人工智能神经网络技术

近几年,人工智能网络技术十分常见。其主要是通过将处理单元之间进行有效的连接,从而构建出成熟的网络系统,能够进行相应的逻辑思维思考等功能,就像人的大脑一样进行思考,与人的脑力具有相似的模拟系统。在实际工业工程中,电子元件、处理元件以及人工神经元等的有效结合,可有效的解决实际工程中的问题以及保证工业的稳定运行。一个完整的人工智能神经网络包含输入层、隐层以及输出层三部分组成。

2.5远程规划与自主控制技术

远程规划与自主控制技术是计算机人工智能识别技术的关键组成部分。通过在航空航天领域应用该项技术,可以有效的实现对外太空器件控制的目的,其中NASA技术的研究应用成功,是人工智能识别技术在航空航天领域应用成功的重要里程碑。其将系统控制与远程监控系统技术充分融合在一起。实现了动态的监控。同时工作人员也可以采用计算机智能识别技术,了解外太空设备的运行状态以及明确设备可能出现的问题。并可针对存在的问题,制定出相应的调整方案,保证设备的可靠运行。

3小结

伴随着经济水平与科学技术的不断提升,人工智能识别技术的应用也越来越广泛,因此对人工智能识别技术进行研究对于提高人们生产生活质量水平具有重要的意义。本文在对人工智能识别技术的定义、研究现状以及其优点优势介绍的基础上,对人工智能识别中的语音识别、图像识别、机器人技术、人工智能神经网络技术以及远程规划与自主控制技术的特点与原理进行的全面的分析。这对于促进人工智能水平的发展具有重要的意义。同时,在未来的人工智能识别技术的发展中,需要对相应的工程实践经验进行总结,并结合环境发展的趋势要求,做好相应的技术研发工作。

参考文献

[1]张文娟.计算机人工智能识别关键技术分析[J].电子测试,2019,000(001):139-140.

[2]朱维平,金钱菽,王海华,等.基于人工智能的船舶识别关键技术研究与应用[J].中国水运(上半月),2020.000(004):65-67.

[3]黄琳.视频监控系统中的关键技术研究[D].西南交通大学,2006.

[4]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,012(006):590-592.

[5]胡智魁.生物医学图像计算机智能识别关键技术研究[D].广东工业大学.

人脸识别的核心技术范文第5篇

展示设计是通过空间与平面设计创设特定主题的空间, 不断调动观众的感官, 吸引观众参与, 以实现展品的宣传、促销目的。近年来, 在党和政府的支持下, 国内展览展示行业规模不断扩大, 并保持着良好的发展态势。数据显示, 2015年全国共举办展览9283场, 同比增长15.9%, 在展览会面积、观展人数上均显现出强劲的发展动力。

当前, 国内展示设计行业显现出展示手段不断更新、展馆类型不断丰富、展示内容与空间高度融合等新趋势, 这些趋势均体现出以下共性特征:一是数字技术辅助实物展示。随着数字技术的不断发展, 展示设计的展示手段、类型、内容等也日新月异。传统展示设计主要以文字、图片、模型的静态形式呈现, 手段单一、内容单薄, 不足以充分引起参观者的兴趣, 也难以全面展现设计师的才华。基于数字技术的展示设计能尽可能调动声、光、电、影视等多项资源, 且形式多样、展示内容丰富, 可最大限度调动观众的视觉、听觉、触觉等多个感官, 极大提升观众的参与积极性与参观体验感。二是注重情境参与性与趣味性。在互联网和大数据环境下, 观众习惯了交互式、趣味性的信息接收方式, 因而交互式、趣味性的展示模式更容易吸引观众的眼球。未来, 展示设计必将引入更多创新技术, 让观众享受跨越时空界限、如同身临其境的体验, 使其能在展厅中畅游, 获得视觉、听觉和触觉一体化的感知效果。

二、增强现实技术在展示设计行业的应用现状

增强现实技术 (Augmented Reality, 简称AR) 基于网络跟踪、计算机显示、交互及定位技术, 将计算机的虚拟信息在现实场景中显示, 充分调动人们的视觉、听觉、触觉等感官, 从而实现对现实场景的增强, 强化观众对现实世界的体验。总体来看, 增强现实技术具有显著的三维配准、实时交互和虚实结合特征。基于增强现实技术的展示设计可有效提升用户体验, 借助RFID、自然图像识别等技术, 可对室内三维空间坐标进行准确定位, 从而将现实空间扩大到虚拟现实领域。

国外在增强现实技术应用于展示设计行业方面积累了较多的经验。如, 2012年印度的一场汽车展上, 主办方基于增强现实技术, 将象征新车XUV500灵魂的虚拟的野生豹带到车展现场, 在现场引起了热烈的反响, 成功吸引了全场所有观众的目光和兴趣, 成功聚集了人潮并创造了话题。在该次车展中, 计算机实时计算野生豹的运动轨迹, 并调整摄影机影像的角度与位置, 辅以相应的图像技术, 使虚拟的野生豹得以在现实世界中展现并与人进行互动 (图1) 。

国内增强现实技术在展示设计行业的应用仍处于初级发展阶段, 较典型的有华堂展业在互动控制和多媒体技术等领域的探索, 相关科研人员在增强现实领域研究了体感互动、智能体感手环控制大屏系统、卡片识别增强现实、移动终端增强现实等技术, 在展厅设计上掌握了增强现实、多点触摸、多媒体显示屏、全息成像等核心技术。如, 华堂展业为足球展馆设计的互动体验方案 (图2) , 基于增强现实技术, 利用摄像头捕捉人们的踢球动作并触发相应的射门动作, 将虚拟的场景与真实世界的人物行为相结合, 大大提升了观众的参与兴趣。

随着互联网技术、大数据技术、人脸识别技术的全面推进, 这些技术与增强现实技术配合在展览业内获得了广泛应用, 为展示设计的形式、内容、手段和技巧注入了活力, 极大地提升了会展服务的水平和效率, 为行业发展提供了更大的想象空间。目前, 由于人才、资金限制, 会展活动对增强现实技术的应用不足, 仍多采用传统的展示方式。展览中大多采用橱窗、展柜、贴墙的传统方式陈列商品, 每件商品贴有对应的纸牌标签, 用寥寥几行文字介绍商品品名、基本情况等, 周边虽然也配有讲解员, 但是对展品的介绍点到为止。这种单向的、缺乏交互的展示模式难以打动观众, 因而也难以获得理想的展示效果。由此看来, 在展示设计行业引入增强现实技术, 从而增强展示与观众之间的互动, 拉近展示与观众的距离, 激发观众的参观兴趣, 显得尤为重要。在未来的展示设计中, 必须结合网络虚拟展示与实地展示等多方优势, 通过品牌文化展示、科技展示、使用体验、促销互动游戏等方式提升展示的互动性、趣味性, 从而最大限提升产品的展示效果。

三、增强现实技术在展示设计中的应用前景

1. 对未来会展服务形式的影响

增强现实技术可以将过去以实物展示为主的展会服务形式转变为基于大量动态数字音频、数字模型及大容量计算机储存技术的虚拟实物和实景再现形式, 通过生动、全面的虚拟现实场景增强观众的感官体验。以房地产展会为例, 房产销售商组织展会的目的是将楼盘配套齐全、规划合理等优势展现给观众, 而仅靠传统的手册、喷绘画、沙盘等展示形式是比较困难的。结合增强现实技术, 通过设计AR情景播放的宣传片、经过特殊处理的视频、基于AR的大屏互动、立体阅读、游戏等场景, 可以为观众营造更为震撼、真实的展会氛围, 通过极强的互动性与真实性给客户带来全新的感受;亦可通过VR设备+AR显示的模式展现小区的虚拟现实场景, 所有关于产品的信息介绍均以文字、图像、音频、视频的形式添加在虚拟现实场景中, 使观众无需讲解员就可了解产品的详细信息, 身临其境地感受自己的未来生活, 从而大大提升了会展活动的举办效果, 在未来会展服务中必将拥有良好的发展前景。

2. 对未来会展服务效率的提升

随着增强现实技术与会展行业的结合, 会展服务效率将得到大大提升。传统会展服务模式大多是讲解员向观众以无差异、灌输式的方式进行会展服务, 而虚拟现实技术的引入将会注入更多个性化、自主式、体验式的元素。观众在参与过程中可沉浸在虚拟现实环境中, 个性化选取所需讲解内容, 亦可实现与虚拟环境的互动交流。同时, 增强现实技术在展示中增加声、光、电、影视等元素, 极大地增强了会展的趣味性、真实感和互动性, 通过3D模型创设虚拟现实场景, 使抽象的产品展示更加形象化、可视化, 便于观众理解。由于基于AR技术的会展模式可以为观众展现全方位、互动化的虚拟现实场景, 将主办方想表达的内容通过易为观众接受的形式予以表达, 将会显著提升会展服务效果, 也为企业提供了更多的商业机会。

3. 对未来会展服务的创新的影响

增强现实技术不仅为会展服务形式注入了新鲜的血液, 而且加快了会展服务的创新脚步。就AR技术本身的发展来说, 当前较为流行的是人手交互的人机交互模式, 即向机器传输手指、手掌和手势等信息实现人机交互。业界关于AR技术的研究不断推进, 像基础3D模型、透明视频、场景展现、AR游戏、VR结合、大屏互动都是常见的AR技术表现形式。随着增强现实技术的行业渗透力不断增强, 尤其是物联网、人脸识别技术、人工智能的不断发展, 增强现实技术在展示设计中如虎添翼, 增强现实技术的应用与研究也在不断推进。未来, 普及度高、携带方便的智能移动设备将成为AR技术的重要载体, 凭借智能手机的高清摄像头、GPS定位、强劲的CPU等, 无须配置任何外部设备即可方便运行AR应用, 如果将其应用于展会中, 无疑将会成为吸引观众眼球的亮点。

四、结语

增强现实技术的核心理念在于人机交互, 而展示的目的在于项目方与客户的交互。因此, 基于增强现实技术的展示设计必然需要强调人机交互理念, 通过品牌文化展示、科技展示、使用体验、促销互动游戏等方式吸引观众的眼球, 从而最大限度提升产品的展示效果。当前, 国内展示设计行业的增强现实技术仍存在许多技术难题需要攻克, 如3D图像成像性能、自然图像识别的准确性及应用界面人机交互性能等, 这些关键技术直接影响用户体验。随着计算机软硬件技术、数字交互技术、计算机图形学及微电子传感器设备的不断发展, 基于增强现实技术的展示设计行业必将迎来光明的发展前景。

参考文献

[1]贾菡.计算机图形学之父伊凡苏泽兰特.程序员, 2005 (11) .

[2]李翔宇.基于VRML的交互式虚拟漫游场景的应用与研究.天津大学硕士学位论文, 2014.

[3]牛霞.虚拟现实在展示设计中的应用研究.西北大学硕士学位论文, 2014.

[4]张亦弛.室内设计的新宠AR (增强现实) 技术.美术教育研究, 2017 (4) .

[5]全红艳, 王长波, 林俊隽.基于视觉的增强现实技术研究综述.机器人, 2008 (4) .

人脸识别的核心技术范文第6篇

【关键词】智能视频监控;目标检测与跟踪;行为分析

0 引言

智能视频监控是实现安全监控的重要技术手段。它涉及信号获取、图像处理、视频处理、计算机视觉等多个学科的研究领域。其中,视频通信、视频处理和视频理解是视频监控技术的三大核心技术。

1 智能监控技术与传统监控技术比较

虽然传统的视频监控技术在视频捕获、通信以及视频存储等方面的技术发展迅速并且日趋成熟,但是对视频内容的分析和理解工作在许多情况下仍然需要人工完成。这不但会导致人工的大量浪费,而且安防人员在疲劳监控中会丢失大量的有用信息。智能视频监控系统不仅能够实时接收视频数据,还能够主动分析得到的视频信息,利用计算机来替代人工进行数据分析判断,在有效的评估后给出最终的不同程度的报警信息。该技术具备实时不间断可靠监控、报警精度高、响应速度快等特点。传统的视频监控系统将无条件的被先进的、功能更强大的智能视频监控系统所替代。

2 监控视频中运动目标的检测方法

监控视频中运动目标检测的算法较多,常用检测方法主要有帧差法、背景差分法和光流法。

2.1 帧差法

帧差法就是将两幅图像的对应像素做相减运算,差值阈值化处理确定运动目标在图像上的区域位置。帧差法中门限值选取低则不能有效地抑制图像中的噪声,过高将会损失图像中有用的细节信息。合理阈值的选择是应用该方法的难题,但帧差法是实时性最强的方法。

2.2 背景差分法

背景差分法的原理就是选取某一参考帧作为参考图像,将当前帧和参考帧做差分。较其它方法比,如果检测环境背景很少变化或不变化,采用这种方法较好,而在一般情况下背景是渐变的。一般采用背景重构的方法构造背景图片,但重构背景比较耗时。

2.3 光流法

光流法的主要原理是利用图像灰度在时间上的变化与景象中物体的运动情况的关系来进行目标检测。通过图像观察到物体表面的模式运动和二维物体的实际运动在图像上的投影来发现目标。该方法缺点是计算复杂,基本不能满足实时性要求。

3 监控视频中运动目标的跟踪方法

3.1 监控视频中的目标跟踪算法

目前监控视频中视觉跟踪算法一般可以分为基于区域、特征、模型和主动轮廓的跟踪算法。

3.1.1 基于区域的跟踪

该算法将视频图像中运动显著的区域分割出来标记成目标对象,通过运动情况估计运动区域几何形状和位置,通过连续帧的目标匹配跟踪目标。优点是简单有效,在多个目标的场景中应用效果好,缺点是只能获得区域级别的跟踪,不能可靠地处理对象间的遮挡问题。

3.1.2 基于特征的跟踪

此类跟踪算法是通过提取图像中运动目标的主要特征元素,并把它们综合处理得到图像的高级别特征,在图像之间匹配这些特征,从而定位和跟踪目标。该算法优点是当出现局部遮挡时目标的一些特征仍然可见,缺点是特征的选取问题和特征的维持时间难以确定。

3.1.3 基于模型的跟踪

此类算法先通过先验知识获得待跟踪目标的模型,以对象模型为依据与图像数据进行匹配跟踪。该算法优点是在对象之间出现干扰或遮挡时能取得较好的跟踪性能,缺点是必须得先获取先验知识,目标形状变化时的实时模板更新困难。

3.1.4 基于主动轮廓的跟踪

此类跟踪算法是先检测出运动目标的轮廓信息,根据对象的边界信息来实现运动目标的跟踪。此算法的优点是简单,出现干扰或遮挡时仍然可以跟踪,缺点是对初始的轮廓信息依赖较大,初始轮廓不准确很容易导致跟踪错误。

3.2 监控视频中的目标跟踪方法

监控视频中目标跟踪常用的有粒子滤波法、均值漂移和卡尔曼滤波法。

3.2.1 粒子滤波法

它是一种基于贝叶斯递推理论和蒙特卡洛方法的非线性系统分析工具,它利用粒子集来表示概率,通过从后验概率中抽取的随机状态粒子来表达其分布情况。它能够比较精确地表达基于观测量和控制量的后验概率分布。存在的主要问题是需要用大量的样本。

3.2.2 均值漂移法

均值漂移法[1]是一种基于密度梯度上升的非参数估计法,通过迭代运算找到目标的最佳位置,实现运动目标跟踪。算法的优点是计算量相对较小,简单易实现,对目标遮挡、旋转、变形和背景运动鲁棒。缺点是容易丢失目标,跟踪效率不高,缺乏模板更新算法,目标大小变化影响大。

3.2.3 卡尔曼滤波法

它是采用噪声与信号的状态空间模型,利用当前时刻的观测值和当前时刻前一时刻的估计值来更新对状态变量的估计,求出估计值。此方法是一种统计意义上的最优状态估计。对于非线性系统,必须进行线性化,再采用扩展卡尔曼滤波进行估计。

4 监控视频中目标行为理解技术的应用

近些年来,随着人们安全意识的加强,对监控视频中目标行为理解[2]的应用越来越多。

4.1 目标跟踪检测

使用带坐标定位的快速摄像机对监控区域内的特定移动目标进行监测、分类识别及轨迹追踪,保证跟踪目标持续放大显示在镜头中央。针对运动目标的运动轨迹调整自身角度跟踪,弥补固定摄像机监控视野窄的缺点。应用于十字路口、地铁等场所。

4.2 绊线、入侵与徘徊检测

绊线检测就是在监视范围内,并在目标穿越规定检测线的非法方向时告警,比如车辆的逆行检测。入侵检测是对目标进入、离开或突然出现时告警。徘徊检测则是对同一目标在该区域内运动超过一定时间时的告警。适合于看守所、监狱、银行、博物馆等场所。

4.3 物体状态检测

监视场景中,对警戒区域内特定位置的物品状态发生变化进行检测分析并告警。可分为:遗留物体检测,物体移除检测。重要物品一旦被遮挡、移动时系统立即发出告警。用于ATM机、地铁、车站、仓库等场所的监控。

4.4 目标识别检测

在目标识别方面,应用比较成熟的是车牌识别,主要用于交通十字路口。近些年,人脸、人体识别技术发展迅速,可以在多段视频中查找相似人或车辆等目标,在特定环境下特定目标的查询等,这些技术在安检方面也有一定的应用。

4.5 流量、密度统计

流量统计是在检测区域中,统计单位时间内按指定方向进入或离开该区域的目标数量。密度检测则是对区域内的目标稠密程度或目标数进行估计。一般用于广场、门口、文化与宗教聚集地等场所的安监。

4.6 人体异常行为监测

检测比如打架斗殴、奔跑、摔倒、滑倒等特殊行为的检测,在考场监控对考生的坐姿进行监控,在医院监测病人异常行为进行及时救助,在电梯内是否发生抢劫等特殊地点的特殊行为进行检测和告警。

4.7 灾害监测

对监视场景中的烟雾、火焰等信息进行监测和报警。目前此方面的检测方法主要根据当时的情况发生的严重程度进行评估,给出不同程度的警告。

5 智能视频监控技术发展的意义

智能视频监控技术源于计算机视觉技术,同时融合了计算机图形学技术、图像处理技术、模式识别等多项技术,目的是对图像、视频序列图像间潜在的敏感信息做出快速反应。智能视频分析技术在军事、经济、医疗、安全等诸多方面都有特殊应用价值。不同的行业对于视频监控的需求迥异,异常行为类型与异常事件也有着特殊性。现阶段对智能视频监控的需求日益多样化和复杂化。它的应用将从相对集中的领域向各行各业深层次大幅度延伸,智能视频分析技术对社会的发展具有巨大的理论与现实意义。

【参考文献】

人脸识别的核心技术范文第7篇

智能图像传感器应用广泛,车感摄像头和激光雷达蓄势待发

我们认为车用、无人机、AR/VR用智能图像传感器将会成为未来5年的新增需求增长点,并预测车用摄像头的市场规模可由2016年58亿美元增长至2020年214.5亿美元,年均复合增速为38.6%;保守估计车用激光雷达可由2016年6亿美元增长至2025年80亿美元,年均复合增速33%;无人机用摄像头可由2016年1200万美元增长至2020年1亿美元,年均复合增速为35.4%。由于激光雷达成本过高,目前各种成像技术多以摄像头运用为主,但未来随激光雷达成本的降低,其在各个领域对摄像头的替代作用也将凸显。

MEMS传感器是智能传感器的未来,重点关注固态激光雷达

具有微米量级特征的MEMS传感器正逐步取代传统机械传感器的主导地位。初步估算MEMS(微机处理系统)智能传感器将会从2015年的115亿美元增长至2021年的200亿美元。摄像头技术应用比较成熟,3D成像、虹膜识别、手势识别是技术发展的主要趋势。激光雷达成本高昂,尚未实现商业量产,未来,为降低成本而取消其机械旋转结构的集成方式将会成为未来技术的突破口,应当重点关注能够实现固态激光雷达扫描的MEMS微振镜技术和光相控阵列技术。

溢价收购+高额融资,资本市场热衷激光雷达和无人驾驶

Mobile eye2014年在美上市,IPO当日募资8.9亿美元,后被英特尔收购,溢价达34.4%,以色列Luminar种子轮融资达3600万美元,以色列Oryx A轮融资1700万美元,美国Quanergy B轮融资9亿美元,中国禾赛科技A轮融资1.1亿元,无人驾驶和激光雷达,备受资本市场的追捧。

投资逻辑,未来市场可关注

硅基材料仍然是市场主流的智能图像传感器材料,但Luminar激光雷达所用的InGaAs材料具有更高的敏感性,或未来实现大规模应用,或对硅基材料有一定的替代性。

人工智能领域,专业化、集成化将会成为未来传感器模组的发展趋势,实现专业化的核心在于算法与功能的匹配,不同类型的传感器的集成,可使之功能互补,扬长避短。目前先进的算法被国外垄断,集成模式将会成为未来3-5年内中国智能图像传感器市场发展的主要趋势。

手机、PC行业的发展已相当成熟,AR、VR是市场热点。随各国对汽车ADAS系统的重视与推广,车用智能图像传感器将会是行业的新增长点。另外,无人机、车联网、智慧城市,也将会是行业未来的风口。

最后,从算法来看,嵌入式技术有更强的针对性,在解决本地问题具备优越性。人工智能领域的深度学习将成为业内主流算法,而大数据结合端对端的高速传输将会推进深度学习算法的实际应用。

我们认为车用、无人机、AR/VR用智能图像传感器将会成为未来5年的新增需求点,预计2020年摄像头市场规模达223亿美元,2016-2020年均复合增速为37%;2025年车用激光雷达市场规模可达80亿美元,2016-2025年均复合增速33%,且随激光雷达成本不断降低,其对摄像头的替代作用也将凸显。

一、智能图像传感器简介

国家标准将传感器定义为:能感受规定的被测量,并按照一定规律转换成为可用输出信号的器件或装置,通常传感器包括两部分:敏感元件和转换器。IEEE协会从最小化传感器结构的角度,将能提供受控量或待感知量大小且能典型简化其应用于网络环境的集成的传感器称为智能传感器。其本质特征为集感知、信息处理与通信于一体,具有自诊断、自校正、自补偿等功能。

目前智能传感器广泛应用于消费电子、汽车工业、航空航天、机械、化工及医药等领域。随着物联网、移动互联网等新兴产业的兴起,智能传感器在智能农业、智能工业、智能交通、智能电网、健康医疗、智能穿戴等领域,都有着广阔的应用空间。

智能图像传感器是能够捕捉和分析视觉信息,代替人眼做各种测量和判断的设备,由图像传感器和视觉软件组成,前者用于捕捉图像,后者用于分析“看到”的内容。典型的图像传感器可以分为:图像采集、图像处理和运动控制三个部分。它综合了光学、机械、电子、计算机软硬件等方面的技术,涉及到计算机、图像处理、模式识别、人工智能、信号处理、光机电一体化等多个领域。

根据感光器件的不同,图像传感器可以分为CCD和CMOS两种。两者都执行相同的步骤:光电转换——电荷累积——输出——转换——放大。

CCD成像仪主要由两部分构成:滤色器和像素阵列,微透镜将光线漏光到每个像素的光敏部分上,当光子通过滤色器阵列时,像素传感器开始捕获通过的光的强度,然后对光信号进行组合,统一输送到外部线路进行A/D处理。与CCD相比,CMOS是具有像素传感器阵列的集成电路,其每个像素传感器都有自己的光感传感器、信号放大器和像素选择开关。

智能传感器的实现结构主要有三种:非集成化实现、混合形式、集成化实现。按照智能化的程度,分别对应:初级、中级和高级形式。MEMS传感器是指采用微机械加工和半导体工艺制造而成的新型传感器。与传统的机械传感器相比,MEMS传感器具有体积小、重量轻、成本低、功耗低、可靠性高、适于批量化生产、易于集成和实现智能化等特点。从集成化的角度来说,MEMS传感器是智能传感器的未来。

目前最常见的智能图像传感器组件便是摄像头,已普遍应用于手机和可穿戴设备等消费电子,目前手机、平板电脑市场趋于饱和,未来无人驾驶、车联网、AR、VR、无人机等新兴智能领域将会成为智能图像传感器的新增需求点。在这些领域的主流传感器组件分别是:摄像头、毫米波雷达、激光雷达。其中激光雷达在探测距离、探测精准度、天气适应性和夜视功能方面具有极大的优势,将会成为未来高端成像设备的主流。

激光雷达的成像原理可简单概括为:激光雷达的发射模块发射出一束具有一定功率的激光束或者是光脉冲,然后经散射镜将光线散射出去,打到待探测目标面上;反射回来的信号由激光雷达的接收模块接收,经过内部的信号处理,结合强度像和距离像的融合,经显示设备输出待测目标的三维图像。

与相机图像不同,激光雷达可通过测量光线的飞行时间,测量物体距离。除此之外,相机的数据源单一,不可靠,虽具有完全360°的覆盖范围,但很容易被迎面而来的光线、黄昏或阴影中看不到东西所遮挡,无法区分远处的重要场景。以车用传感器为例,分别对比摄像头、毫米波雷达、激光雷达,三者之间的区别如下图所示:

二、智能图像传感器主要应用领域及市场空间

20世纪90年代末期,随着CMOS图像传感器工艺和设计技术的进步,市场份额不断扩大,近年来市场占有率已经超过90%,取代CCD成为主流。2016年CMOS的市场规模为103亿美元,三大巨头索尼(Sony)、三星(Samsung)和豪威(Omnivision)分别占比全球市场份额35%、19%和8%,合计占比62%,市场格局相对比较集中。

从区域市场的分布来看,根据Globle image sensor的预测,2012-2018年全球全球图像传感器市场规模同比增长率为4.35%,到2018年,市场规模可达106.6亿美元,增长主要集中在亚洲,中国将会成为最大的受益国。2012年北美、亚洲和欧洲和其他区域的市场份额分别为35%、34%、22%和9%,而到了2018年四大区域的市场份额分别为:27%、40%、18%和15%。

从下游应用领域分布来看,当前CMOS图像传感器主要应用于智能手机和平板电脑,占比下游应用70%左右。随着嵌入式数字成像技术迅速扩展,未来用于智能手机和平板电脑的CMOS的比例将会逐渐降低,汽车系统将成为CMOS图像传感器增长最快的应用,到2020年汽车行业传感器市场规模可增长至22亿美元,约占市场总额152亿美元的14%。2015年-2020年,汽车用CMOS全球销售额复合年增长率可达55%。

在汽车行业之外,未来2015-2020年间,安全监控领域可保持36%的年均复合增速,增长至9.12亿美元;医疗/科学应用领域可保持34%的年均复合增速,增长至8.67亿美元;玩具/电子游戏可保持32%的年均复合增速,增长至2.74亿美元;工业系统可保持18%的年均复合增速,增长至8.97亿美元。

从应用形式来看,CMOS传感器的主要应用为摄像头模组(CCD),2014年全球CCD市场规模为201亿美元,其中封装、AF(自动对焦系统)& OIS(图像稳定系统)供应商规模合计占比市场份额的72%,分别为72亿美元和72.5亿美元。根据Yole Développement预计,2020年CCD全球市场规模可增长至510亿美元,6年间的年均复合增速为16.8%,其中封装领域市场规模达225亿美元,年均复合增速20%;AF & OIS市场规模达155亿美元,年均复合增速13%。

目前手机、电脑用摄像头是摄像头模组下游应用的最广泛领域之一,未来随着无人驾驶技术的逐步推进,融合了图像传感器的车载摄像头以及激光雷达,作为ADAS的解决方案将会面临新一轮的增长,除了车感摄像头之外,无人机和机器人领域、以及增强现实(AR)和虚拟现实(VR)领域都将是智能图像传感器的新的市场增长点。

1. 汽车领域的发展状况

相比手机摄像头,汽车摄像头的进入壁垒更高,单价也是手机摄像头的八倍左右(车载摄像头价格在32美元(约合人民币197元)左右,夜视用车感摄像头更是高达上千美元。2016年ADAS的市场规模为105亿美元,根据Strategy Analysis预测,到2020年ADAS市场规模可达300亿美元,复合增长率可达24%。

随着ADAS市场的爆发,车用摄像头迎来了增长的风口,作为ADAS全景系统的重要组成部分,市场上主流的ADAS解决方案中,一辆车至少安装7个摄像头,按照安装的位置,分别分为:前视、后视、侧视以及车内监控四大部分。目前来看欧美国家的ADAS的市场渗透率较高,在8%左右,而中国的渗透率较低,为3%左右。且欧美各国近期都纷纷出台强制安装ADAS系统的政策,未来ADAS系统的渗透率将会逐步提高,相关机构预测到2020年全球新车ADAS系统的渗透率可达20%。

2005年-2015年,全球汽车产量由6593.4万辆增长至8967.8万辆,年均复合增速3%,预计未来仍以该速度增长,至2020年全球汽车产量可达1.04亿辆,由此预估车用摄像头的市场规模到2020年可达214.5亿美元,年均复合增速为38.6%。

ADAS系统是无人驾驶的基础,未来随着ADAS系统技术的不断成熟,无人车也将会进入爆发增长阶段。相比车感摄像头,激光雷达可以探测到更远的距离,对恶劣天气的适应性更强,因而成为无人车视觉系统的首选。根据激光雷达的激光发射器的数量不同,目前Velodyne Lidar无人车系统用激光雷达售价在7999美元-8.5万美元,未来随着激光雷达技术的不断发展,成本可进一步降低,对车感摄像头的替代效应也将凸显。

根据BI Intelligence预测,未来自动驾驶车辆(包括L1-L5)将会由2016年的50万辆增长至2025年的2200万辆,其中不包括能够实现L5的全自动驾驶车辆,达到L5级别的全自动驾驶车辆预计2025年之后将会出现。由于激光雷达的价格较贵,假设只有高自动驾驶车才会安装,目前高端车占比市场总量的4%左右,保守估计2017年到2025年车用激光雷达的市场规模可以由10.5亿美元增长至80亿美元,年均复合增长率在33%左右。

2. 无人机和机器人领域的发展状况

无人机和机器人有着极其广泛的细分市场,包括消费者无人机,自动驾驶车辆,招待机器人,远程呈现等,预计无人机和机器人业每年将新增至少10种应用,带来约10亿美元的收入。目前无人机和机器人传感器的市场规模为3.51亿美元,预计到2021年可增长至7.09亿美元,年均复合增速可达12.4%。

具体到智能图像传感器在无人机领域的应用,目前主要是以相机模组的方式,搭载在无人机上,作航拍或者地图测绘等需要成像的领域,2014年无人机出货量为45万台,市场规模约7亿美元,高盛预测,未来到2020年,无人机出货量可达780万台,市场规模可达33亿美元,出货量年均复合增速达60%。随着无人机市场的爆发,无人机用摄像头也将会迎来新增长,预计到2020年无人机用摄像头市场规模可达1亿美元,2013-2020年年均复合增速达35.4%。目前激光雷达成本较高,多用于测绘用无人机上,未来随着激光雷达技术不断成熟,成本不断下降,激光雷达在无人机市场的应用也将会越来越多。

3. AR(增强现实)和VR(虚拟现实)领域的发展状况

随着AR和VR的应用越来越广泛,该市场包括了音频、图像、存储器和处理器,几乎可以涵盖我们生活的方方面面。就近期而言,推动AR/VR发展的九大动力主要是:游戏、现场活动、电影娱乐、保健、不动产、零售、工业以及军事,其初始驱动力来源于个人消费。高盛预计2025年,AR/VR软件收入的60%将来源于个人,40%源自于企业和公共部门,而推动AR/VR的应用的三大动力主要是:用户体现、技术突破和内容的拓展。

相关机构预测2016年-2025年,AR/VR的市场规模可从40亿美元增长至800亿美元,年均复合增速可达40%,其中硬件规模可由20亿美元增长至420亿美元。在未来市场增长一般的情况下,AR/VR设备的出货量可由2016年的120万台增长至2020年的730万台,年均复合增速为57%。而在未来市场增长较好的情况下,AR/VR设备的出货量由2016年的840万台增长至2020年的7000万台,年均复合增速可达68%。

由市场和出货量我们可以估算出2016-2020年AR/VR设备的平均售价为2380美元/台,未来随着技术的不断成熟,价格将会进一步降低。保守估算AR/VR领域用摄像头市场规模由2016年8400万美元增长至2020年的7亿美元,年均复合增速为70%。

具有微米级特征的MEMS传感器正逐步取代传统机械传感器的主导地位,预计2021年,MEMS智能传感器市场规模可达200亿美元,2016-2021年均复合增速为9%。摄像头技术应用比较成熟,激光雷达尚未实现商业量产,未来可重点关注能够降低成本的固态激光雷达的实现方式。

三、智能图像传感器的技术现状及未来发展趋势

1.MEMS是智能传感器的未来

智能传感器的基本技术主要包括:功能集成化、人工智能材料的应用、微机械加工技术、三维集成电路、图像处理及DSP(数字信号处理)、数据融合理论(嵌入式数字成像技术),有两种设计结构,分别是:数字传感器信号处理(DSSP)和数字控制的模拟信号处理(DCASP),一般采用DSSP模式,通常至少包括两个传感器:被测量传感器(如图像传感器)和补偿传感器,传感信号经由多路调制器送到A/D转换器,然后在送到微处理器进行信号补偿和校正,测量的稳定性只能由A/D转换器的稳定性决定。

具有微米量级特征的MEMS传感器可以完成某些传统机械传感器所不能实现的功能。因此,MEMS传感器正逐步取代传统机械传感器的主导地位,在消费电子产品、汽车工业、航空航天、机械、化工及医药等领域得到广泛的应用。

MEMS传感器的门类品种繁多,目前压力传感器、加速度计和陀螺仪是MEMS器件应用最广泛的器件,MEMS的市场总额为54.25亿美元,其中压力传感器、加速度计和陀螺仪合计占比约45%,随着各国对ADAS系统的重视,以及无人驾驶的爆发,未来汽车电子市场的增长将会成为驱动MEMS市场增长的主要动力。

Yole Développement预测,未来MEMS(微机处理系统)智能传感器将会从2015年的115亿美元增长至2021年的200亿美元,年均复合增速为9%,在相同时期,出货量的同比增长率达13%。

智能图像传感器涉及到计算机、图像处理、模式识别、人工智能、信号处理、光机电一体化等多个领域,主要分为硬件系统和软件系统两大部分。硬件系统包含了处理器、存储器和控制器,软件系统主要包括各种驱动和算法。

目前较为先进的应用主要有:激光雷达、3D成像和传感技术、虹膜识别。

激光雷达的成像主要涉及以下几个主要部件:激光发射器——散射片——接收器——处理器——输出显示,其中关键部件在于激光发射光系统和接收光系统。

发射光系统中的激光器的输出波长因工作物质的不同而不同,根据工作物质(气体、光纤、半导体、自由电子、液体激光器)、激励能源(光泵、电激励、化学式)以及输出的波长(红外激光器、紫外激光器和可见激光器)可以对激光器进行不同的分类,目前主流激光器主要有:固体Nd:YAG激光器、光纤激光器、半导体激光器等。

用于激光雷达系统的激光器的关键技术指标在于光波可探测的距离,对于激光雷达来说,激光器发出的光波越长,可探测的距离就越长,而光波长度不仅取决于光波本身的特性还取决于激光器的功率,一般而言,功率越高光波可探测的距离越长。

激光雷达接收器的作用在于将目标反射或者散射的激光回波信号转换为相应的电信号,主要由:接收光学系统、光电探测器、前置放大器、主放大器和探测器偏压控制电路构成。就接收器使用的材料而言,主要是IV族中的Si、Ge和III-V族的GaAs、InP等材料,但硅材料以其晶体完整性、大尺寸、优良的热学性能等以及硅微电子技术的成熟性等优势,广泛应用与目前的集成电路。但具最新消息,在Luminar公司即将推出的1000台性能优越的激光雷达(40阵列、探测距离可达200米),所用激光接收器为InGaAs接收器。相比硅基的激光接收器,InGaAs接收器具有更高的敏感性,但成本更高,未来随着成本的降低,将会有越来越广泛的应用。

除了有可以接收直线光的接收器之外,还有另外一种形式接受光信号的形式,即是Oryx独家开发的“相干光雷达系统”。不像激光雷达那样通过光电传感器来侦测光线粒子,该系统根据光的“波粒二象性”,以波的形式使用纳米天线来感知反射回来的信号(光)。

其原理是:用激光束照亮前方,用第二套光学仪器,将入射光导引到大量的微型整流纳米天线中。由于系统不需要机械镜面或一系列通道来引导激光、捕捉环境,只需要发出激光束来照亮前方,所以可大大降低成本。另外,系统所使用长波红外光被水吸收的比率很低,也很少受到太阳辐射的影响,所以不会在大雾或强光直射环境下失效。

激光雷达按有无机械旋转部件分类,包括机械激光雷达和固态激光雷达。根据线束数量的多少,又可分为单线束激光雷达与多线束激光雷达。而未来的发展方向将会从机械走向固态,从单线束走向多线束。

目前激光雷达迟迟没有大规模应用的原因在于组装和调试成本高,为了实现激光在水平视角的360°扫描,需要为激光雷达安装机械旋转装置,而降低激光雷达成本的根本手段便是取消机械旋转结构。方法一是:利用MEMS微振镜来控制激光的方向,把所有的机械部件集成到单个芯片,目前荷兰Innoluce公司正在着手这一技术的研发,预计2018年量产,成本不超过100美元。方法二是:完全取消机械结构,采用相控阵列的原理实现固态激光雷达。光相控阵列的原理是:采用多个光源组成阵列,通过控制各光源发射的速度和时间差,灵活合成角度,且精密可控的主光束,目前Quanergy公司的S3产品用的就是这一原理,成本可降低至250美元/台。

随着激光雷达技术的推进,微型化、低成本、高性能将会成为必然趋势,固态激光雷达也将会成为最终的激光雷达形式。全球现有的激光雷达的主要生产厂家,如下表所示:

3D成像能够识别视野内空间每个点位的三维坐标信息,从而使得计算机得到空间的3D数据并能够复原完整的三维世界并实现各种智能的三维定位。目前在高端市场如:医疗和工业领域的应用逐渐成熟,呈现出加速趋势,预计2018年在移动和计算领域将会有大量3D成像和传感产品面市,如:iPhone 8将采用前置3D摄像头、Kinect游戏配件和Leap motion手势控制器,3D成像技术将是解决人机交互的突破口。

目前主流的3D成像技术有三种:

(1)结构光(Structure Light)。具有特别结构的光投射特定的光信息到物体表面后,由摄像头采集。根据物体造成的光信号的变化来计算物体的位置和深度等信息,进而复原整个三维空间,代表公司如:以色列PrimeSense公司Light Coding方案。Light Coding发射940nm波长的近红外激光,透过diffuser(光栅、扩散片)将激光均匀分布投射在测量空间中,再透过红外线摄影机记录下空间中每个参考面上的每个散斑,形成基准标定。标定时取的参考面越密,则测量越精确。获取原始数据后,IR传感器捕捉经过被测物体畸变(调制)后的激光散斑pattern。通过芯片计算,可以得到已知pattern与接收pattern在空间(x, y, z)上的偏移量,求解出被测物体的深度信息。

(2)TOF(Time Of Flight,飞行时间)。通过专有传感器,捕捉近红外光从发射到接收的飞行时间,判断物体距离。TOF的硬件实现方式和结构光类似,区别只是在于算法上,结构光采用编码过的光pattern进行投射,而TOF直接计算光往返各像素点的相位差。

(3)双目测距(Stereo System)。原理类似人的双眼,在自然光下通过两个摄像头抓取图像,通过三角形原理来计算并获得深度信息,目前的双摄像头就是双目测距的典型应用。

从技术角度来说,3D成像并不是近年才新出现的。自2009年微软基于3D成像的游戏体感交互设备Kinect已经有8年时间,而Google的Project Tango也提出了4年。3D成像已经过了技术基础期,即将进入长达5年以上的高速成长期。

虹膜识别是一种新兴的生物特征识别技术,通过采集虹膜图像,提取和比对虹膜纹理特征点之间的差别来识别身份,相比于传统的指纹、人脸等生物特征识别技术具有唯一性、稳定性和高度的防伪性等优势。对比其他生物测定技术只能读取13-60个特征点,虹膜测定技术可以读取266个特征点,准确率高达99.29%。虹膜识别技术的过程一般来说包含如下四个步骤:虹膜图像获取——图像预处理——特征提取——特征匹配。

虹膜识别系统自进入21世纪之后开始大量应用于安防、监控、特种行业身份识别等领域,但由于其硬件的笨重和算法的低灵敏度,并没有突破消费级电子市场。直到2015年5月,日本手机厂商富士通了全球首款限量产虹膜识别智能手机Arrows NXF-04G,才被人们认知。但相比目前的指纹识别,并没有得到广泛的应用,其原因在于以下三大挑战:虹膜算法,基于互联网的安全解决方案以及虹膜支付的生态建设。

同时,虹膜识别技术本身也存在着以下几点主要难题:图像难采集、睫毛和眼皮的遮掩、瞳孔弹性形变、头或眼球的转动带来虹膜旋转误差、戴眼镜的反光影响、不同摄像头设备带来图像质量的差异等。

3.融合智能传感器的ADAS解决方案(以Mobile eye为例)

ADAS即是汽车驾驶辅助系统,Mobileye ADAS在功能方面覆盖了安全增强、便利提高两个方面功能,详情如下表所示:

Mobile eye的ADAS系统主要有三大核心技术,分别是:传感器识别(Sensing)、高精地图定位(Mapping)和驾驶策略系统(Driving Policy)

(1)传感器识别包括车辆搭载的所有传感器设备:摄像头、雷达、激光雷达、超声波传感器等,所有这些传感器所收集到的信息,都将作为原始数据被传输到高性能电脑当中并加以分析,为车辆建立环境模型(environmental model)。

Mobileye的图像识别技术主要是基于EyeQ芯片技术的基础,研发单眼摄像头。EyeQ芯片是Mobileye的核心技术,具备异构可编程性,用来支持包括机器视觉、信号处理、机器学习任何以及深度神经网络的部署。从EyeQ5开始,Mobileye将会正式支持全自动驾驶标准的操作系统以及全套开源SDK用于开发者进行算法开发。Mobileye下一步布局三目摄像头识别以及传感器融合,完成360°全车周图像传感识别的覆盖。

(2)高精地图定位:用于帮助车辆在整个路径规划中精确定位,提供无人驾驶系统安全冗余,高精度地图的车辆定位精确度达到了10cm,远高于GPS的定位精确度。Mobileye推出道路体验管理系统(Road Experience Management, REM)——一个端到端地图和定位引擎。这个引擎包含三个主体:数据采集主体、地图整合服务器(云端服务器整合众包数据)、地图使用主体(无人驾驶车辆)。

数据采集主体采集包括车辆路径几何数据、静止路标等数据,然后Mobileye进行实时几何及语义分析,之后这些数据被封装为道路段数据(Road Segment Data)并传送到云端服务器。云端服务器进行数据整合以及源源不断的RSD数据流量协调,最终打造为一张高精度、低反应时间的全球路书Roadbook。最后就是路书的本地化:让无人驾驶车辆能够使用这张路书,REM会让车辆在路书地图中自动定位并根据实时更新来确保定位准确。