首页 > 文章中心 > 机器学习

机器学习

开篇:润墨网以专业的文秘视角,为您筛选了八篇机器学习范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

机器学习范文第1篇

机器学习

机器学习是研究计算机如何模拟或实现人类的学习行为,获取新的知识或技能,并对已有的知识结构进行重新组织使之不断改善自身的一种新技术。机器学习的研究方法是从大量的观测数据寻找规律,利用这些规律对未来数据或无法观测的数据进行预测。迄今为止,关于机器学习还没有一种被共同接受的理论框架,关于其实现方法有以下几种:

第一种是传统统计学理论,亦即经典的统计估计方法。实际上,传统参数估计方法正是基于传统统计学的,在这种方法中,参数的相关形式是已知的,训练样本用来估计参数的值。但这种方法有很大的局限性:首先,它需要已知样本分布形式,这需要花费很大代价;其次,传统统计学研究的都是假设样本数目趋于无穷大时的渐近理论。而实际问题中,样本的数目往往是有限的,因此一些理论上很优秀的学习方法实际中表现却可能不尽人意。

第二种方法是经验非线性方法。经验非线性方法利用已知样本建立非线性模型,克服了传统参数估计方法的困难。但是,这种方法缺乏一种统一的数学理论。以神经网络为例,神经网络是目前运用较多也是最早应用的非线性分类,由于神经网络是基于经验最小化原理,它具有对非线性数据快速建模的能力,通过对训练集的反复学习来调节自身的网络结构和连接权值,并对未知的数据进行分类和预测。但是,神经网络从某种意义上说是一种启发式的学习机,本身有很大经验的成分,它有诸如如何确定网络结构的问题、过学习与欠学习问题、局部极小点问题、训练出来的模型推广能力不强等固有问题得不到很好的解决。

为了克服神经网络算法这个无法避免的难题,万普尼克(Vapnik)领导的AT&T Bell实验室研究小组提出了统计学习理论。统计学习理论是一种专门研究小样本情况下机器学习规律的理论,该理论针对小样本统计问题建立了一套新的理论体系,在这种体系下的统计推理规则不仅考虑了对渐近性能的要求,而且追求在现有有限信息的条件下得到最优结果。Vapnik还在统计学习理论基础上提出了支持向量机(Support VectorMachine,SVM),是一种全新的模式识别方法。由于当时这些研究尚不十分完善,在解决模式识别问题中往往趋于保守,且数学上比较难以解释,因此对支持向量机的研究一直没有得到充分重视。直到20世纪90年代,由于神经网络等机器学习方法的研究遇到一些难以解决的瓶颈,使得支持向量机的研究得到重视并迅速发展和完善。支持向量机是基于结构风险最小化原理的一种新方法,利用结构风险最小化原理使得VC维即泛化误差的上确界最小化,从而使支持向量机具有很好的泛化能力。支持向量机在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。SVM最初是针对分类问题提出的,目前也被推广到回归问题上。鉴于SVM扎实的理论基础,SVM目前已经成为机器学习的研究热点之一,并已经取得了很好的研究成果。

支持向量机

支持向量机方法是根据有限的样本信息建立的模型获得最好的推广学习能力。它的实现的思想是:通过某种事先选择的非线性映射,也就是满足Mercer定理的核函数将输入向量映射到一个高维特征空间,在这个空间中构造最优分类超平面,使得这个最优分类超平面能够尽可能多地将两类数据点正确地分开,同时使分开的两类数据点距离分类面最远。我们以二维线性不可分,而三维线性可分为例,如图所示:

图a)表示二维空间中的样本非线性可分,只能用椭圆曲线作其分类标准;但通过某种映射,将样本点映射到图b)的三维空间,样本就变得线性可分。从本质上讲,支持向量机是通过构造一个带线性不等式约束条件的二次规划问题,并求解该问题来构造分类超平面,从而得到决策函数。

支持向量机的优点

传统的统计方法只有在样本数目趋向无穷大时其性能才有理论上的保证,对于应用中的优先样本难以取得理想的分类回归效果,而支持向量机是一种小样本学习方法,在小样本学习上有特殊的优越性,能在训练样本数目很小的情况下取得很好的推广能力,特别是对非线性分类和回归问题的处理上更加有效。同时,作为一个凸优化问题,支持向量机还具有泛化能力强,容易训练,没有局部极小值等优点。支持向量机相对传统的机器学习方法优势还是很明显的:

1、支持向量机是一种有坚实理论基础的新颖的小样理本学习方法,并且运算过程中基本上不涉及概率测度及大数定律等。

2、支持向量机的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。

3、少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。

此外, 支持向量机具有调节参数少,运算速度快,时间代价小的优点,加之支持向量机理论研究的逐步深入,支持向量机在模式识别、回归估计、概率密度函数估计等问题上的研究也逐步深入,成为各国研究者的研究热点。

支持向量机的应用

由于支持向量机具有良好的逼近任意复杂非线性系统的能力,近年来被广泛地用于自动控制领域,以解决非线性、大滞后系统这一困扰现代控制理论界的难题。

模式识别方面,支持向量机可以广泛应用到人脸和人脸姿势识别、指纹识别、基因数据分析和编码、语音激活检测、语音分类以及图像的检索和识别等问题,无论从查全率和查准率两方面较传统方法都有较大的提高。

机器学习范文第2篇

关键词:机器学习

数据挖掘

人工智能

中图分类号:TP181

文献标识码:A

文章编号:1002-2422(2010)03-0093-02

1机器学习概述及方法分类

1,1机器学习的概念、应用及发展概况

机器学习是一种使获取知识自动化的计算方法的学习。机器学习在人工智能的研究中具有十分重要的地位。其应用已遍及人工智能的各个分支,如专家系统、自动推理、自然语言理解、模式识别、计算机视觉、智能机器人等领域。

对机器学习的研究大致经过以下四个阶段:

(1)20世纪50年代的神经模拟和决策理论技术,学习系统在运行时还很少具有结构或知识。主要方法是建造神经网络和自组织学习系统,学习表现为阈值逻辑单元传送信号的反馈调整。

(2)20世纪60年代早期开始研究面向概念的学习,即符号学习。使用的工具是语义网络或谓词逻辑,不再是数值或者统计方法。在概念获取中,学习系统通过分析相关概念的大量正例和反例来构造概念的符号表示。

(3)20世纪70年代中期,研究活动日趋兴旺。1980年在卡内基・梅隆大学召开的第一届机器学习专题研讨会,标志着机器学习正式成为人工智能的一个独立研究领域。

(4)20世纪80年代中后期至今,机器学习研究进入一个新阶段,已趋向成熟。神经网络的复苏,带动着各种非符号学习方法与符号学习并驾齐驱,并且已超越人工智能研究范围,进入到自动化及模式识别等领域,各种学习方法开始继承,多策略学习已经使学习系统愈具应用价值,而运用机器学习的数据挖掘在商业领域中的应用则是最好的例子。

1,2机器学习方法的分类

Bose和Mahapatra归纳了数据挖掘中使用的机器学习技术主要有以下五种:

(1)规则归纳:规则归纳从训练集中产生一棵决策树或一组决策规则来进行分类。决策树可以转化成一组规则,分类规则通常用析取范式表示。规则归纳主要优点是处理大数据集的能力强,适合分类和预测型的任务,结果易于解释,技术上易于实施。

(2)神经网络:由类似人脑神经元的处理单元组成,输入节点通过隐藏节点与输出节点相连接从而组成一个多层网络结构。节点的输入信号等于所有通过其输入链接到达此节点的信号的加权和。神经网络由相互连接的输入层、中间层、输出层组成。中间层由多个节点组成,完成大部分网络工作。输出层输出数据分析的执行结果。

神经网络的最大优点是能精确地对复杂问题进行预测。其缺点是处理大数据集时效率较低,用户在使用这种方法的时候需要具备相当的建立和运行该系统的工具知识。

(3)事例推理:每个事例都由问题描述和问题的解决方法两部分构成。提出问题后,系统会寻找匹配事例和解决方法。其优点是能够较好地处理污染数据和缺失数据,非常适用于有大量事例的领域。

(4)遗传算法:是一种基于生物进化过程的组合优化方法。其基本思想是适者生存,基本操作包括繁殖、杂交和变异三个过程。繁殖过程是从一个整体中选择基于某种特定标准的信息并对要求解的问题编码,产生初始群体,计算个体的适应度。杂交过程是把一个信息的某一部分与另一个信息的相关的部分进行交换。变异过程随机改变信息的某一部分以得到一个新的个体。重复这个操作,直到求得最佳或较佳的个体。遗传算法的优点是能够较好地处理污染数据和缺失数据,易于和其它系统集成。

(5)归纳性逻辑程序:用一级属性逻辑来定义、描述概念。首先定义正面和负面的例子,然后对新例子进行等级划分。这一方法具有较强的概念描述机制,能较好地表达复杂关系,体现专业领域知识,因而用该方法得出的模型易于理解。

2数据挖掘中机器学习技术的特性

商业数据库往往含有噪音,体现在存在错误和不一致性。如果数据验证过程不够充分,则可能允许用户输入不正确的数据,而数据迁移也可能产生破坏。

商业数据库的另一个常见问题是数据的缺失,尤其是当数据来自于不同的数据源时。由于数据编码标准和聚集策略的不同,有可能将导致无法对所有的属性进行分析。

另外,在商业数据挖掘中,数据集的大小从几吉到几兆不等,并往往还有大量的属性,所以可测量性是数据挖掘技术的一个重要方面。商业数据库含有多种属性类型,如果机器学习技术能够处理不同的数据类型,则将对数据挖掘产生更大的作用。

数据挖掘技术的预测精度是评价挖掘效果的一个非常重要的因素。遵循监督学习过程的机器学习系统首先被训练,但是系统对真实数据的预测精度往往低于对训练数据的预测精度。所以,能对真实数据得到较高的预测精度显然是一个所需的特性。

结果的可解释性是另一个重要的所需特性。在商业数据挖掘应用中往往需要使用不同的DSS或DBMS,所以与其他信息系统的易整合性也是一个需要的特性。不同的机器学习技术需要终端用户具有一定程度的工具知识和领域知识,一些技术还需要对数据进行大量的预处理工作,因此对于终端用户来说,易于理解和需要较少预处理工作的机器学习技术是比较好的。

3机器学习方法与数据挖掘任务类型

Bose和Mahapatra把运用于数据挖掘的机器学习方法在商业应用时的任务类型可以归结为如下;

(1)分类:利用一个训练集来确定最大可区分属性,当分类确定好之后,新的实例可以通过分析进行合适的分类。

(2)预测:根据已观测到的数据来找出可能的将来值和/或属性的分布。主要的任务之一是确定对要预测的属性影响最大的属性。

(3)关联:在寻找实体之间或者实体属性之间的潜在联系规律的关联分析当中,最常见的就是市场菜篮子分析。

(4)侦察:侦察的目的在于寻找异常的现象、离群数据、异常模式等等,并且给出支持决策的解释。

机器学习方法及其所对应解决的数据挖掘中的任务类型总结如表1所示。

机器学习范文第3篇

市场的波动以及各种各样影响需求的复杂因素使得需求预测变得更加困难。“机器学习”这一新技术可以帮助企业克服这一挑战。

需求预测非常困难,现在采用的大部分需求预测技术结果常常不能令人满意,而且会出现重大的预测错误。这样的需求预测并不能迅速地分析需求数据的趋势,同时在了解需求变化的内在原因方面的作用也不大;而且,由于需求分析需要大量的人工投入,经常会出现偏差或是预测效率低的情况。

是什么让需求预测变得如此挑战重重?现今的商业环境下,需求数据不再是一系列逻辑统一的数字,而更像是一组杂乱无章的浑噩。需求不断地受到多重内外部因素的影响,时而高,时而低,因而单单靠分析历史数据并不能够准确地进行需求预测。需求应该被看作是由一系列复杂因素驱动,几乎不能够用传统的预测公式分析的这样一组数据。

然而,有一种叫作“机器学习”的新技术可以通过可靠模拟需求变化的各种原因,帮助企业成功地应对需求预测的挑战。它是一种对能够通过经验数据自动改进的计算机算法的研究,这些计算方法不再是一板一眼地遵循固定的编程指令,而是利用数据构建,并且经常性地改善具体算法的性能,进行预测。

困难重重的需求预测

如今的企业都遇到了哪些需求预测的困难呢?

大量促销活动——每年,意大利乳制品生产商葛兰纳诺公司(Granarolo S.p.A.)开展数以万计的客户促销活动,为34000 个库存产品促销进行需求预测。但是情况却更为恶劣:需求峰值可以比基础销售额高出30 倍。这是一个常见的困境。对于许多消费产品企业,广告和促销的费用可能会占到20% 多的销售收入。然而营销优化研究所(Promotion Optimization Institute)创始人兼首席行政官迈克? 坎特(MichaelKantor)表示,只有1/50 的企业能够准确地预测需求增长,确保消费产品的供货,并且评估这些促销的经济回报。没有先进的技术手段,很少有企业能在促销频繁的情况下精准地做出预测。

大量新产品——英国电子元件集团(Electro components plc)是全球领先的企业,有50多万种库存产品。公司每个月推出5000 种新产品,每天有来自32 个国家的44000 多个订单。每个月新增的产品是一回事,但是为品类繁多的新产品进行需求预测可不是一件简单的事。另外,新产品的预测也更困难。因而,预测者可以利用外部数据帮助他们预测初始需求,然后决定应该在新产品推广中投入多少的营销费用。

大量“长尾”需求——那些电子商务业务正在不断增长的企业发现,他们必须对那些客户订单小而且不频繁的慢销、“长尾”产品进行需求预测。异常值自然很难预测,这使得库存计划变得十分困难。即便你可以预测某种产品的平均需求,你可能也不能够预测需求高峰。手头上既要有足够的库存满足突如其来的需求激增,同时避免增加不必要的库存,要在这两者之间做出一个平衡几乎是不可能的。

不断增长的复杂性——在葛兰纳诺20 世纪60 年代作为牛奶生产商成立之初,需求计划并没有那么复杂,但是随着公司逐渐成长成为一个跨国集团,拥有8大品牌和上百种不同的乳制产品,采用各式各样的配送模式,情况就变得复杂了。公司基本的预测软件并不能够应对这种规模的增长,这导致预测的结果越来越不准确,并且耗费了巨大的人力成本。葛兰纳诺面临的情况也是现代供应链共同面临的,而且复杂性还在继续增加。

极端的节令性—— 美国暖气、通风和空调设备制造

商雷诺士国际公司(Lennox International Inc.)的需求预测非常复杂,原因有很多:一是产品的多样性(每种产品都有各自独立的需求模式),二是慢销产品多,三是销售受季节影响非常明显。更复杂的是,雷诺士公司计划大大扩展其配送网络。因而只有采用高度自动化的需求计划系统,公司才可以应对这样的复杂性和多变性。

数据太多——在总结分析所有的这些企业后,我们发现一个共同的规律:那就是太多的新数据。这里我主要指的是能够帮助企业更好地预测需求的市场和物流数据。管理大量多样且不断增长的数据流已经超过了大多数需求计划者(和计划系统)的处理能力。想要把这些新数据运用表格或传统的计划工具纳入到预测中实属不易,而且通常是无意义的,另外成本也会非常高。

以上这些示例公司都具有相当程度的复杂性和规模,这使得计划者不能够进行准确的需求预测。这些公司的业务不再是简单的、可基于历史销售数据进行预测的。因而在这些情况下,需求预测者都已经无能为力了。

我们发现很多情况下,人们总是等到非常晚才开始为预测做贡献。因而,他们并不是第一时间为准确的预测提供资源,而只是调整预测结果。这样的方式效率很低。

这些企业还有哪些其他的共同点呢?它们全都采用机器学习,提高预测的准确性。这一决定大大地降低了库存成本,同时为客户提供了更好、更有效率的服务。这同时也意味着计划者不需要浪费更多的人力时间否决或者调整需求。

接下来就让我们一同了解一下机器学习是如何实现这些改变的。

什么是机器学习?

机器学习系统的设计主要是针对能够处理各种各样数据的预测模型。不同于遵照传统的编程指令,机器学习系统通过模拟所有可能影响需求的变量,同时过滤掉随机和不可预测的需求波动,减少了需求的可变性。因而,它们能够从已经处理和分析的数据中学习,并且做出相应的优化和改变。例如,一个使用网页数据迅速检测到热销新产品的机器学习系统可以找到并了解哪些需求指标——比如网页点击量、规格下载和在线时间——是最可靠的,然后根据消费习惯的改变自动更新计算方法。

机器学习可以分析各种分销渠道的刺激因素(比如促销和广告)和需求指标(比如社交媒体活动)的效果。随着信息量的激增,这些因素和需求指标更容易获得,同时也更加容易管理。机器学习系统因此能够整合并且有效地模拟这些重要的新数据资源,包括详细的市场数据、机器遥测术和社会媒体费用,而这些方法是传统的需求计划系统不可能实现的。

那它有什么样的实际意义呢?其中一点,这意味着企业可以利用有价值的、更接近消费者的数据信号,包括实时销售数据和社交媒体渠道。这样公司就可以了解需求驱动因素,比如媒体、促销和新产品推广的效果,然后用这些信息大大地提高预测的质量和详细度。

出现这些情况你就需要它了

机器学习技术是否对你的供应链有益呢?想要找出结果,你首先要知道旧的计划系统是否正在产生越来越高的成本。

安全库存水平增加——你不能相信你的安全库存可以满足需求,保证服务水平,于是你不断地提高安全库存水平。机器学习则通过将更多的需求变量纳入分析,帮助那些产品种类多(包括长尾产品)的企业制定出最优且值得信赖的低库存水平。

“吃不消”的计划团队——你的团队花太多的时间人工地调整和评估需求预测,而且通常还是不能够提供及时准确的预测。这导致效率低下,影响团队士气。而机器学习可以根据各个需求变量的重要性,纳入预测分析,实现更为准确的预测。这样就解放了计划者的人力时间,让他们可以花费更多的时间用个人的洞察力和业务知识去精练需求预测。

销售与运作计划(S&OP)流程效率低下——来自销售与运作计划方面的共识预测并不可靠,或者这背后的共识合作过程太缓慢,不能够适应市场和产品的多变性。机器学习的高度自动化可以提高短期和中期预测的质量,通过从交易和促销数据中提炼出关键趋势,对这些趋势提出可实现的见解,因而让销售与运作计划更为高效,实现企业目标。

机器学习范文第4篇

近期,印第安纳大学与普渡大学印第安纳波利斯联合分校的研究人员开发了一种机器学习算法,可以90%预测急性骨髓性白血病(AML)的复发,以及100%准确预测缓解,当患者在初诊时,白血病细胞为1012,经过导入疗法的化学治疗以后,白血病细胞减少到大约109以下时,就不能再从血液和骨髓中发现白血病细胞,这时候,病人即可以达到完全缓解的程度。这项小型研究凸显了机器学习具备取代传统诊断方法的潜力,研究者使用的是来自AML患者的骨髓细胞、病史数据以及其他健康个体的信息。

传统诊断方式主要是手动分析来自流式细胞术(流式细胞术是对悬液中的单细胞或其他生物粒子,通过检测标记的荧光信号,实现高速、逐一的细胞定量分析和分选的技术)的数据,而机器学习方法体现了它的高准确率和及时性。

普渡大学生物科学中心计算生物学研究助理教授Bindley Bartek Rajwa解释,他的计算系统采用流式细胞术的数据作为输入。流式细胞术是一种广泛使用的技术,可以快速地提供样本中单个细胞的特性,如血液或骨髓细胞。

Rajwa是该研究的第一作者,该论文已经被IEEE 生物医学工程学期刊收录。

“魍车牧魇较赴术的结果是由受过高度培训的人类专家评估,而不是机器学习算法,”他补充说,“但是计算机通常比人类更擅长从复杂数据中提取知识。”

斯坦福大学医学院教授和遗传学教授Michael Snyder博士,同意计算机在复杂癌症病例诊断中是关键的辅助工具,也许最终会取代人类医生。

在8月份的时候,他使用机器学习来区分不同类型的肺癌,他认为病理学的观点非常主观,“两个高度熟练的病理学家评估同一张幻灯片时,只有60%的部分是共同认可的。使用机器学习的方法,可以用复杂、定量的测量结果来取代主观性,我们认为很有希望改善患者的诊断结果。

机器学习正在迅速地成为许多疾病类别预测分析和诊断的流行工具,包括脓毒症、创伤护理、心脏病、人群健康管理、视力保健和精神卫生保健。

2015年,来自哥伦比亚大学,布宜诺斯艾利斯大学和IBM计算生物学中心的一项研究也使用机器学习实现准确无误的预测诊断记录,他们使用自然语言处理技术来标记可能进入精神病发作的心理健康患者。

随着开发人员和研究人员改进他们的机器学习方法,以及供应商更多工具,从事高级分析的机构可以访问庞大的计算能力,诊断准确率会普遍得到显著提升。

印第安纳大学与普渡大学印第安纳波利斯联合分校的病毒进展研究的高级作者、计算机副教授Murat Dundar表示,教会计算机识别AML是非常简单的,一旦你开发了一个强大的鲁棒算法,能将以前的工作提升到接近100%的准确率。

“有挑战性的是如何超越确诊AML工作本身。我们要让计算机准确地预测AML患者的疾病变化方向,从新的数据中理解并预测未知走向,知道哪些新的AML患者将进入缓解状态,哪些会进入复发状态。

机器学习范文第5篇

关键词 机器学习 统计 数据挖掘 互联网

中图分类号:TP181 文献标识码:A

1机器学习技术介绍

根据南京大学教授周志华的《机器学习和数据挖掘》对机器学习的定义,“机器学习”是人工智能的核心研究领域之一,其最初的研究动机是为了让计算机系统具有人的学习能力以便实现人工智能。目前被广泛采用的机器学习的定义是“利用经验来改善计算机系统自身的性能”。事实上,由于“经验”在计算机系统中主要是以数据的形式存在的,因此机器学习设法要对数据进行分析,从海量的数据中,利用各种机器学习算法,提炼具有洞察价值的信息。

2机器学技术简介

机器学习是人工智能研究发展到一定阶段的必然产物。R.S.Michalski等人把机器学习研究划分成“从例子中学习”、“在问题求解和规划中学习”、“通过观察和发现学习”、“从指令中学习”等范畴。20世纪80年代以来,研究次数最多、应用最广的是“从例子中学习”(即广义的归纳学习),它涵盖了监督学习(如分类、回归)、非监督学习(例如聚类)等众多内容。归纳学习另一个重要分支是神经网络和支持向量机,自从80年代BP“反向传播算法”的发明以来,神经网络得到了极大的发展,现在已经形成“深度学习”这一独立的领域,在图像识别和音频识别方面发挥着重要的作用。以下是主要机器学技术的介绍:

2.1分类算法

分类算法属于监督式学习算法,其原理是通过研究历史数据,提取数据特征指标,依据历史数据结果,形成分类规则集合,通过信息熵最大算法,不断对这些规则进行筛选,最终形成对数据进行有效分类的规则集合,以对将来数据进行预测。分类算法包括决策树、随机森林等。

2.2聚类算法

聚类算法属于非监督式学习算法,与分类算法等监督式学习不同,聚类算法不包含数据标签,而是对原始数据特征运用距离算法,以推断出数据标签。常见的聚类算法包括k-Means、分层聚类等。

2.3关联算法

关联算法是从一个数据集中发现数据项直接关联规则的算法,关联算法的代表是基于频繁项集的Apriori算法。如果存在一条关联规则,它的支持度和置信度都大于预先定义好的最小支持度与置信度,我们就称它为强关联规则。强关联规则就可以用来了解项之间的隐藏关系。所以关联分析的主要目的就是寻找强关联规则,而Apriori算法则主要用来帮助寻找强关联规则。

2.4回归算法

回归算法基于统计学的线性回归和逻辑回归分析技术,线性回归是通过“最小二乘法”,对观测数据进行拟合,以对未来数据进行预测;逻辑回归与线性回归算法非常类似,但使用的是离散的数据分类特征,使用sigmoid函数,将线性回归的计算结果转化为0或1的概率,然后根据这个概率进行预测。

2.5支持向量机

支持向量机(SVM)属于基于核的算法,是90年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。

2.6神经网络

人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法,重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network),反向传递(Back Propagation),学习矢量量化(Learning Vector Quantization,LVQ)等。

以上是对机器学技术和算法的简要介绍,实际上机器学习领域发展很快,各种算法层出不穷。据统计,现有的机器学习算法已经超过1000种。我们这里主要介绍一些应用比较广泛的机器学习技术,为后续在高中阶段学生自主学习中应用做铺垫。

3基于机器学习的自主学习

高中阶段学生要实现自主学习,除了前文提到的机器学习技术已经成熟之外,还有两个先决条件也已经具备。一是随处可得的数据收集和处理技术;另一个是基于互联网的丰富的教学资源和多样的教学手段,包括课件、题库、多媒体课堂等。

3.1大数据技术

大数据技术是随着互联网发展起来的最新数据处理技术,它处理的规模和吞吐量是之前的计算机系统的几百上千倍,因而,随地收集各种数据成为可能。

大数据技术主要包括四个方面:

3.1.1海量数据收集

大数据收集技术能够实时地收集各种格式的海量数据,不仅包括原有各种格式化数据,还包括传统计算机无法收集的数据,如设备运行日志、视频和音频数据。

3.1.2数据处理和存储

大数据技术支持PB直至ZB级数据的处理和存储,有人统计过,现在Google一天处理的数据量,已经超过20年前全世界1年产生的数据量。

3.1.3数据挖掘和分析

大数据技术利用大规模计算机集群的超级计算能力,使原有的性能低下的数据挖掘和机器学习算法高速运行,从而使实时数据挖掘和分析成为可能。

3.1.4数据展现

大数据技术利用计算机图形学和认知心理学的最新研究成果,利用丰富的数据展示图表,支持各种图形界面的数据展示,提高了信息送达和知识传播的效率。

3.2互联网教学资源

互联网及其相关的数据搜索和数据服务技术,使传统的线下以书本中心的教学资源体系,转变为以互联网为中心的教学资源体系。以互联网为中心的教学资源体系,无论是容量、检索速度还是展现方式,都是传统的书本教学资源无法比拟的。

目前,在互联网上可以检索到高中阶段各科目的各种教学电子教材、教学课件、作业试题、考试试卷等,而且很多教学资源能够以具体、生动的方式来传播知识。因而降低了教学资源的获取门槛,拓宽了教学资源的获取途径,客观上非常有利于高中阶段学生进行自主学习。

4基于机器学习技术的自主学习过程

虽然有了互联网、大数据和机器学习等技术,但要实现高中阶段学生自主学习,即在提高学生学习兴趣的同时,提高应试水平,还需要采取很多切实措施。

具体措施包括以下几个部分:

4.1过程数据收集

要实现自主学习,必须对学生学习的行为过程和学习的结果数据进行全面收集,学习相关数据包括以下内容:

(1)学生基本信息:包括年龄、性别、地域、家庭条件等;

(2)学习过程数据:包括迟到、旷课、上课提问次数、听课积极度评价、作业完成时间、作业完成次数、作业未交次数、考试完成时间等;

(3)学习结果数据:包括作业、测验、考试的试题数据、分数数据、试题相关的章节、知识点等;

(4)学习相关其他数据:包括教师基本信息、教师对学生评价、高考数据等。

4.2行为和模式分析

心智模式是学生的思想方法、思维习惯、思维风格和心理素质的综合反映,是学生各项思维能力的“总和”,用以感受、观察、理解、判断、选择、记忆、想象、假设、推理,而后指导其学习行为。现代教育心理学认为,高中阶段学生已经形成一定的心智模式,且心智模式对学生的学习行为有很大的影响,进而对学习的成果起决定作用。

目前可以通过学生外在表征行为数据,对学生的心智模式进行建模。高中阶段学生的心智模式主要由三个维度构成:

(1)智力结构:包括观察力、注意力、记忆力、实践力;

(2)思维能力:思维的广度和深度、思维的逻辑性、思维的独立性;

(3)动力结构:主要是学习动机的强弱,包括学习兴趣、学习态度、学习目标和学习适应能力。

根据学生的心智模型,可以通过机器学习技术,对学生心智模式进行集群分析,定位学生心智模式,然后分析学生历史学习数据,确定有效的、针对不同学生心智模式的个性化学习方案。

4.3个性化路径定制

在确定每个学生心智模式的基础上,结合过往的优秀学习案例数据,为学生制定个性化的自主学习路径。自主学习是按照新课标的进度要求,为不同学生确定基本的学习路线图,而且根据反馈,及时调整自主学习路径,动态地适应学生的实际状况。

自主学习路径本质上是一个时间轴上的各个学习目标的动态关联。总体目标由阶段性目标质变而成,(例如,总体学习目标可以是高考一本线,那么在高中三年中,每个学年每个学期都要有月度目标,月度目标之下还应有周目标)最终形成一个基于每个学生心智模式的高效学习路径。

4.4预测与推荐

机器学习技术利用系统积累的大量学生的学习案例数据,实现对学生学习趋势的预测,并根据实际学习产出,调整预测模型。在预测模型的基础上,可以利用各种推荐算法,在适当的时间点向每个学生推荐最佳的学习资源。即根据自主学习路径,参照正常的课程进度,提供微课、作业、测验等适合每个学生的学习资源,确保阶段性目标的达成。

4.5监控与干预

机器学习系统收集学生的学习数据,按照自主学习路径,监控每个学生的学习异常,及时向学生、老师和家长提出预警,以便对学生学习进行帮助,确保学习路径与各阶段目标不偏离。

由于高中阶段学生还处于青春叛逆期,很容易出现抗拒学习的行为,因此在学习干预的触发设计上,必须保证有一定的余量,必须注意不能引起学生的逆反心理。

参考文献

[1] 周志华.机器学习与数据挖掘[J].中国计算机学会通讯,2007(9).

机器学习范文第6篇

关键词:机器学习;普适计算 ;Agent普适机器学习

中图法分类号:TP18文献标识码:A 文章编号:1009-3044(2009)31-00000-00

A Kind of Agent Pervasive Machine Learning Classifier In The Application of Smart-It

WANG De-peng, LI Lu

(Department of computer engineering, Suzhou vocational university, Suzhou 215104,China)

Abstract: Pervasive computing has been rapid developed in recent years. Pervasive Computing has developed towards machine learning in the year of 2003. After the agent pervasive machine learning model design research and agent pervasive machine learning classifier research, a kind of agent pervasive machine learning classifier was used to Smart-It in this paper. By analyzing the data, compared to its advantages and disadvantages.

Key words: Machine learning; pervasive computing; agent pervasive machine learning

Mark Weiser在1993年提出普适计算要实现高度的智能化使其可以实现随时随地的特性[1]以后到2003年国际普适计算会议召开以前,所有普适计算都是遵循一个具体问题有一个实现的模式。在该次会议上提出了普适计算使用自身信息提高系统性能的思想,使普适计算向机器学习的方向发展。

机器学习的定义一般公认的是Simon对学习的论述:“如果一个系统能够通过执行某个过程改进它的性能,就是学习”。因此针对普适计算的透明化、不可见的特点及机器学习系统性能改变的特点,在普适计算中引进智能Agent来实现机器学习以提高系统性能,实现Weiser博士提出的透明化、不可见性及人机交互,即机器学习的普适性。

普适机器学习是以机器学习的泛化特性为基础结合普适计算中的随时随地特征,研究一种适合各行各业问题需求的机器学习新算法。该算法有很强的适用性和灵魂性,涉及的范围比较广泛,如人工智能,机器学习,认知科学,移动技术,普适技术,Agent技术等。本文主要借助Agent的基本特性,如移动性、自主性、学习性等[2],借助普适机器学习的基本思想,给出了Agent普适机器学习模型的设计[3]、Agent普适机器学习分类器设计模型[4]。

1 smart-It描述

文献[5]中使用Smart-It模拟中世纪炼金术士提炼金块过程的一个游戏,每一个炼金术士都有自己独特的提炼方法和对魔法原料使用的比例。假设有三种魔法原料:Lux(勒克斯),spells(魔力)和magic motions(魔法动作),炼金术士使用自己独特的合成公式将这三种魔法原料合成金块。在文献[5]对游戏的描述和规则做了详细的描述,在此不再详细叙述。

在Smart-It开始时,与用于监视控制实验室用户学习的复杂传感器相比,此处使用的监视传感器是简单的。简单传感器的一个直接的接触使用的优点是可以自动的收集数据,使用好的粒度相对当地网络的独立性,例如,当移动的时候。另外,他们可以持续的检测数据而不被意外打断。在很多情况下,建议性技术的专门嵌入设备是容易处理的,Smart-It的基本评价是适合专门的测试。由于没有视频的检测设备,所以参与者的整个行为过程就无法监视。同样的也表明可以向监视用户行为的方向发展。

存在的不足:第一,只能监测专门的事先知道的数据。第二,在参与者走出监视范围的时候,或是错误使用设备的时候,可能收集到掺杂错误的数据,缺乏数据分类功能。第三,每个设备都是独立的个体,缺乏整体性的数据感知能力。第四,合成方法的单调性,合成公式一旦确定,就不能随着数据的变化而调节,缺乏学习性。

2 改进方法

实例改进:针对以上的缺点,把Agent普适机器学习分类方法和Agent普适机器学习方法引入到实例中,先通过普适分类器把数据进行详细的分类,去掉噪音和时效性的限制。随后在数据合成过程中,使用学习功能,对合成公式进行调节,以达到有效使用数据和最大合成得目的。

1) 把从传感器中获取的信息,使用普适机器学习分类器进行分类,去除掉噪音,并且把三种信息具体分类,把自己生成的信息和交换后的信息具体分开,以便于快速准确地进行信息的交换。

2) 每一个Smart-it加入与服务器的无线网络连接,可以从服务器获得各个Smart-It中信息的状态,以便于有目的移动Smart-It,根据数据信息的比例,合理的调节合成公式的比例。

3) 使用Agent普适机器学习中的方法,有目的指导Smart-It的移动,以便于获得相关的信息和进行信息的交换。

3 实例设计

针对上述描述,对炼金术士的Smart-It游戏,进行设计。为了验证上述的理论和试验条件的限制,将游戏完全用软件来实现,Smart-It用Agent进行封装,成为独立主体。智能空间,用一个二维平面代替。在游戏设计中,主要涉及到以下几个方面的主要内容。

在系统中用到的有效的信息种类数为c;C为合成公式中各类信息的合成比,具体表述为C=c1:c2: ……:cc;λ=λ1: λ2: ……: λc为数据库中的信息比。

3.1数据交互,可需性和时效性的相关性

1)可需性:是指在合成过程中缺少的信息,或者是在数据库中,比例下降的信息,用λN表示。

2)时效性:是指信息具有时间限制,2 min内不能交换的信息,将被丢失,用λT表示。

3.2可需性和时效性的具体含义

1)λN有两部分构成,合成过程中缺少的信息nλiN(i=1,2,……,c),c为信息的最大种类数,n为缺少信息的单位数;数据库中比例下降的信息λiN(i=1,2,……,c),在数据库中的最优信息比为λ=λ1: λ2: ……: λc等于信息合成公式各类信息的单位比例C=c1:c2: ……:cc。

λN= nλiN +λiN(i=1,2,……,c)

nλiN={nλiN│i为需要的信息的类别标号,n为需要信息的数量},(i=1,2,……,c)

λiN={λiN│i为需要的信息的类别标号},(i=1,2,……,c)

2)每单位信息的时效为T=2min=120s,设置新获得的信息为T=120s,然后T逐渐减小,到0时数据失效被丢弃。在信息有效的整个过程中,需要实现信息的交换,在T值较大时,可以采用Agent普适机器学习方法有目的地自由选择交换的信息种类,当T减小到一个临界值时需要采用贪心算法,将达到临界值的信息无选择的等单位交换,最大可能性的减少数据的丢失。这个临界值用Tα表示,用T的倒数作为失效性的一个参数,实现时效性由小到达的变化过程。

λT=Tα/T

λT的值在达到1以前是缓慢增加的,可以采用Agent普适机器学习方法有目的地自由的交换;在1后是迅速增加的,表示出了时间的紧迫性,需要采用贪心算法进行交换。

为避免信息交换的复杂性,在此只实现信息的一次交换,即信息发生交换后,不可再与其他没交换信息或者已交换信息发生交换。

3.3当λN和λT同时出现时的优先级描述

1) λN=λiN, λT≤1,采用Agent普适机器学习方法有目的地自由交换,原则是首先用λT较大的信息交换需要的λN。

2) λN=λiN, λT≥1,采用贪心算法交换,原则是首先把λT大于1的信息无选择的用于交换,是否能换到λN中饱含的信息是次要的。

3) λN=nλiN, λT≤1,采用Agent普适机器学习方法有目的地的交换,与含有λN中包含的信息的agent进行交换。

4) λN=nλiN, λT≥1采用Agent普适机器学习方法有目的地交换,首先与含有λN中包含的信息的agent进行交换,λT大于1的信息是否能交换掉是次要的。

采用Agent普适机器学习分类器进行信息分类,采用Agent普适机器学习模型作为学习模型。信息交换和合成时需要的时间忽略不计。

4 数据分析比较

在游戏中,每5min为一个计时单位,统计游戏中三种数据的生成单位数;数据的失效比率;合成的单位数。游戏固定时间为100min,从10次游戏,1988个数据中选择最具代表性的一个游戏时间内的数据作数据分析。

1) 对于游戏中的三种数据,受到自然环境的限制,因为游戏是在特殊的环境下进行的,所以三种数据的生成在改进前后没有大的变化。

2) 在改进前,游戏中的数据交换只是在随机遇到其他参与者时才会发生,因此数据的交换存在很大的随机性,没有及时得到交换的数据就会在时效性失去时称为失效数据。改进后的游戏,因为采用机器学习的方法,采取了有目的移动,向着可以发生交换的方向移动,就成为有目的的数据交换,使数据的失效性显著下降(如图1)。

3) 数据合成:改进前,数据的合成不仅受到数据失效性的限制,还受到合成公式的限制,当合成公式合成后,不能再进一步的调整,不能最大的利用数据。该进后的则不同,可以根据全局数据的比例,合理的调整合成公式,已达到最大利用数据和最多的合成(如图2)。(下转第8764页)

(上接第8762页)

对比改进前后的Agent系统可以看出,采用了Agent普适机器学习和Agent普适分类器的分类方法后,1) 原来的无目的随机性活动变为有目标的活动;2) 利用全局数据比合理的调节公式,可以达到对数据的最大利用率,减小数据的丢失;3) 由原来合成的不稳定性变为稳定的数据合成。

5 结论与展望

综上所述,本文的主要结果包括:1) 将无目的随机性活动变为有目标的活动;2) 利用全局数据比合理的调节公式,以达到获取数据的最大利用率,减小数据的丢失;3) 原来合成的不稳定性变为稳定的数据合成。Agent普适机器学习的发展受到现有软硬件方面的发展,特别是无线技术和多Agent之间的协作,以及多Agent之间的通信和协调等方面。目前Agent普适机器学习的方法还处在研究阶段,还需要大量的研究工作使其完善,已达到为人们服务的目的。

参考文献:

[1] Mark Weiser.the computer for the twenty-first century [J].Scientific American,1991,256(3):94-104.

[2] 赵新宇,林作铨.具有监控能力的Agent模型[J].计算机科学,2006,33(3):11-17.

[3] 王德鹏,李凡长.Agent普适机器学习模型设计研究[J].苏州大学学报.2008,28(2):25-31.

机器学习范文第7篇

关键词:软件安全 结合语义 机器学习 方法 探讨

中图分类号:TP393.08 文献标识码:A 文章编号:1007-9416(2016)06-0229-01

1 软件安全现状分析

目前阶段,软件安全存在诸多问题与缺陷。其中,网络仿冒事件以及网页的恶意代码事件频繁出现,并且增长速度不断增加。很多网站都被黑客入侵,或者是被植入了木马攻击程序,导致信息系统的安全漏洞逐渐增加。这一现象导致软件的安全受到威胁,并且严重影响其在多领域多行业中的正常使用。要想积极地转变这一情况,就一定要采取相应的方法并及时予以解决处理,保证软件安全程度的提高,进而确保软件能够为人们提供更加安全的服务。

2 机器学习策略

2.1 机械学习

在机器学习的过程中,无需进行推理或转换知识,可以对周围环境所提供的信息内容进行直接地吸收,并且实现信息简单存储。这种学习策略是最基本的,以塞缪尔跳棋程序与西蒙LT系统为例,这些都是机械学习范围[1]。在开展机器学习的时候,仅仅需要根据软件所编辑好的程序进行学习就可以,不许对输入信息内容让进行推理。然而,该学习策略仅仅适用于环境比较稳定或者是具备固定输入、输出模式的系统当中,对于环境要求很高。

2.2 示教学习

该学习策略也被称作传授学习或者是指导式学习,不仅需要在环境方面投入大量工作,同时,需要保证机器学习具备推理能力。该策略具体的过程就是:对指导者提出建议请求,并在接受建议的同时,有效地转化成内部表现形式。而后,转化成具体知识内容,并且将获得的新知识纳入知识库当中,最后应采取相应的方法评价并检验新的知识。

2.3 演绎学习

这种学习策略属于推理学习策略,将“一般到个别”的推理方法当作基础。对于所给出的知识予以演绎和推理,并且得出全新结论,而后需要存储正确并且具有一定价值的结论。如果把演绎推理过程反逆,就被称为归纳推理[2]。

2.4 归纳学习

所谓的归纳学习,指的就是由环境所提供的概念或反例,使其在归纳中推理概念。它的推理量比示教学习与演绎学习推理量大很多。归纳学习包括示例学习与观察学习。其中,示例学习就是为机器的学习系统提供示例,进而使其在归纳中获得概念一般描述。而观察学习则是学习系统观察环境并进行学习。

2.5 类比学习

类比推理是类比学习策略的重要基础条件,通过对事物相似性的充分利用来学习新的知识。具体的过程可以概括成:事先搜索与其相似并且实际存在的事物,而后和类似并且实际存在的事物予以合理变换和调整,最终获取全新事物,并将其纳入到知识库当中。

3 软件安全中结合语义的机器学习方法

在软件安全中,结合语义的机器学习方法指的就是同语义相互融合,进而保证软件系统整体多维特性的有效提升,进而迷惑恶意代码。结合语义机器学习方法属于检测算法,能够对被恶意代码或者是木马篡改的恶意文件进行严格地检测。该方法在检测的过程中,很容易识别迷惑恶意代码,而且,准确程度也很高。该学习方法通过使用语言的操作语义,对系统程序具体的执行行为进行确定。其中,操作语义同样可以当作语言解释器,并且每一条规则在读取的过程中,都是由左向右,由上向下[3]。另外,还应该把每条既定语句合理地匹配至相应的规则中。其中,在语义解释方面,语言模型可以分成两种:

第一,面向用户的语言模型。这里所阐述的语言模型,主要是依据用户自身特点所提出的,所以,一定要与用户记忆特点相适应,其中一部分就是利用大规模训练的一种通用语言模型,该模型的参数是不会发生变化的;另外一部分就是在线学习用户模型,该模型的参数始终处于变化当中。然而,在实际使用的过程中,需要保证以上两种模型同时被应用。以汉语为例进行分析,第一种语言模型机器学习的过程可以解释成:首先把拼音或者是语句以键盘输入的形式传递到学习系统当中,而后使用通用语言模型与用户语言模型,同时对语言解码。再次,对输入内容进行转换,并且得到结果并输入至软件当中。如果最终的结果存在错误,那么就需要用户及时修正,最终将正确的结果内容输入到软件当中。最后一步就是通过机器学习或者是用户编辑反馈到以上两种语言模型当中。

将以上两种语言模型进行结合的方式有很多,最具代表性的就是使用线性插值的方式,把通用语料以及用户输入的信息构建成两种相互独立的语言模型,并实现有机结合。其中,该模型的方式必须要始终遵循概率计算归一化的条件要求。

第二,Bi-gram语言模型的机器学习算法。该语言模型主要就是依据用户在线输入的数据信息,进而对用户模型当中存在的错误参数予以合理地修正。把既定拼音串,初次转换成的汉语句子称为A;而将初次转换成的汉语句子中存在错误并予以修正以后的句子称为a。而后,可以在机器学习中将以上两个句子进行对比,进而获取正确构成语句的词汇。而在采用该语言模型进行学习的过程中,机器学习不仅要尽可能地对语言模型当中存在的转换错误予以纠正,但是不应该过度纠正,否则就会导致语言模型的不平衡现象出现。

4 结语

综上所述,在提升软件安全性能的过程中,应用综合语义机器学习方法具有重要的现实意义。在软件安全当中,有效地融入语义机器学习,能够提高多维特征迷惑恶意代码,使得软件安全性能得到提升,推动软件与网络稳定并且健康地发展,最终为人们提供优质服务。然而,在软件安全当中结合语义机器学习的方法仍然需要深入研究与探索。文章对软件安全的现状进行了分析,并阐述了机器学习策略,最终对软件安全中结合语义的机器学习方法进行了研究和探讨,主要的目的就是为了有效地提升软件安全,为更好地开展机器学习提供有力的保障。

参考文献

[1]苗发彪.探析在软件安全中结合语义的机器学习方法[J].计算机光盘软件与应用,2014(18):79-80.

机器学习范文第8篇

关键词 在线学习 机器学习 故障预警

中图分类号:TP393.08 文献标识码:A 文章编号:1007-9416(2015)07-0000-00

当前通信网络管理系统正在面临着越来越严重的挑战。网络管理系统用于监控通信网络运行情况,掌握设备运行状况,及时对故障做出响应,快速定位并排除故障,辅助网络维护人员保证网络的稳定可靠运行是网络管理系统的职责。ATM网络以后随着通信网络IP化进程加快,路由和交换能力增强,网络管理系统已经很难对故障作出分析定位。本文基于在线学习方法对网络管理系统故障预警技术进行了分析和设计,提出了故障预警技术的实现方法。

1 在线机器学习方法

在线学习(Online Learning)是机器学习的重要领域之一,是指每次通过一个训练实例学习模型的学习方法。在线学习的目的是正确预测训练实例的标准,其最重要的一个特点是当一次预测完成时,其正确结果便被获得,这一结果可以直接用来修正模型。

在线机器学习方法包括基于支持向量机的在线学习算法和基于感知器的在线学习算法。基于支持向量机的在线学习理论是有限样本信息在模型复杂性和学习能力间的最佳折衷,并非真正意义上的在线算法,而且得到的识别效果也不佳。

最早的在线学习算法为感知器算法,感知器算法简单有效,十分符合在线学习模式,近年来对于在线学习的许多研究都建立在此基础上。基于感知器的在线学习算法,包括感知器算法和Passive-Aggressive算法。其中感知器算法用经验数据相关矩阵表示,算法近似最大边缘超平面以用于线性可分的数据,而Passive-Aggressive算法与感知器算法计算复杂度相同,识别性能略有提升,更新权向量的目标是保证模型更新后在新样本点上的损失函数值较小,且靠近更新前的训练模型。

2 故障预警技术架构

故障预警技术架构包括两个过程:第一个过程是针对标记号的训练样本提取故障特征,训练分类器。第二个过程是用学习好的分类器去实时监测故障,提取故障特征,通过分类器分类,最后得出分类结果。

故障特征提取时,读取一条,训练样本,先判断这条故障信息是否合法,不合法就读取下一条;若合法,则依次提取故障设备IP、设备名称、设备运行状态、故障等级、故障描述、故障发生时间、故障发生次数、距离上次同一故障发生间隔、发生故障的设备模块、与故障设备物理连接的所有设备IP和名称,这些特征信息提取出来都是字符串的形式,需要把他们表示成特征向量的形式,这里我们可以借助自然语言处理的特征向量表示法,把每个字符串作为一个特征,并赋予唯一的代码,其特征值用布尔型表示,特征出现则为1,未出现则为0。特征和代码的映射关系用map容器来表示,在map容器中查询特征字符串,若不存在,则将新的特征字符串和代码加入map容器中。然后输出特征向量,输出形式为“特征代码:特征值”。当实时读取网络运行信息进行故障预测时,对应每一个特征向量有一个预测结果,若即将发生故障为“+1”,不会产生故障为“-1”。

3 在线学习算法

在训练分类器时关键技术为在线学习算法。相比批量学习方法,在线学习算法更适合处理通信设备故障特征信息,在线学习算法是一种增量学习算法,每次用一个样本训练,然后根据损失调整权向量,本文在线学习算法采用基于感知器的在线学习算法,包括感知器算法和Passive-Aggressive算法。

针对样本训练分类器的在线学习过程如下:

(1)做内积运算:将训练样本的特征向量与分类器的权向量做内积运算,得出预测结果;

(2)预测结果比对:将预测结果与实际情况进行比较,若相同,表示预测成功,无需更新权向量;若不同,说明预测失败,要承受损失;

(3)更新权向量:根据损失计算权向量的更新值,更新权向量。上述两个基于感知器的在线学习算法将分别训练出两个分类器,我们用实验来测试分类效果最好的那个算法。两个算法的不同之处在于他们权向量的更新方式不同。感知器算法的更新公式为:

4结语

目前,通信设备故障预警技术是一个很难解决的问题,以往通过规则库或专家系统实现故障预警系统的思路是走不通的,研究将在线机器学习方法在通信设备故障预警技术中的应用是一个很好的思路。本文将在线机器学习方法运用到通信设备故障预警系统, 针对训练样本进行故障特征提取、训练分类器, 提出了通信设备故障预警技术实现方法。随着通信设备故障管理技术的不断发展, 故障预警系统的设计实现将不断得到改进和完善。

参考文献

[1]邓歆,孟洛明.基于贝叶斯网络的通信网告警相关性和故障诊断模型[J].电子与信息学报,2007, 29(5):1182-1186.

[2]史永胜,宋云雪.基于遗传算法与BP神经网络的故障诊断模型[J].计算机工程,2004,30(14):125-127.

[3]刘凤玉,李千目,衷宜.基于贝叶斯分类的分布式网络故障诊断模型[J].南京理工大学学报,2003,27(5):546-550.

[4]刘启元,张聪,沈一栋,汪成亮.信度网结构在线学习算法[J].软件学报,2002,13(12):2297-2304.