首页 > 范文大全 > 正文

决策树ID3算法在高校教师教育技术培训中的应用研究

开篇:润墨网以专业的文秘视角,为您筛选了一篇决策树ID3算法在高校教师教育技术培训中的应用研究范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

摘 要: 高校教师教育技术培训存在培训形式单一、内容安排不够合理、评价体系不够健全等问题。针对参训教师在知识层次、学科背景、思想意识等方面存在的差异,应坚持“先分类后培训”的思想,以学校教师历年参训情况构造ID3决策树,利用分类技术从中挖掘出一些潜在的、隐藏的知识,为将来参训教师的分类、培训的具体实施做好充分的准备工作。实验表明,该方法具有一定的可行性。

关键词:高校教师教育技术培训;决策树id3算法;应用

中图分类号:G451.2 文献标志码:A 文章编号:1002-0845(2012)10-0098-02

信息技术的迅猛发展引起了教育的深刻变革。为此,提高教师的信息素养已成为推动我国高等教育信息化建设的必由之路。高教司于2000年发出的《关于开展高校教师教育技术培训工作的通知》(高教司【2000】79号)[1]中指出,“教育技术培训”是“新世纪教改工程”和“现代远程教育工程”的重要组成部分,是深化教学改革、提高教学质量的重要举措。

常熟理工学院自2001年6月开始,对教师进行教育技术培训,2003年1月起申报江苏省教育技术培训点,次年申报成功。2007年,学校正式下发的《常熟理工学院讲师等中级职称资格条件》(常理工[2007]73号)第二章第七条规定:教师申报教学系列、思政系列的中级职称应参加学校现代教育技术培训并取得合格证书。近几年来,学校先后举办了十期教师教育技术中级培训班,共400多名中青年教师参加了培训,极大地提高了教师的多媒体教学水平,加快了学校信息化建设的步伐。

一、高校教师教育技术培训存在的问题

教师教育技术培训的研究对象是教学过程与教学资源,研究范畴包括对教学过程的设计以及教学资源的开发、应用、管理与评价。目前,各高校的教师教育技术培训工作虽已取得了一定的成绩,但从培训的实际效果来看,仍存在着一些问题,主要表现在以下三个方面。

1.培训时间安排不够合理

目前,教师教育培训基本采用集体面授的方式。由于参训教师自身所承担的教学工作和科研任务比较繁重,很难抽出一段相对集中的时间来参加教育技术培训。为解决上述矛盾,高校通常会选择利用寒暑假时间安排培训,这需要牺牲培训教师和参训教师的许多休息时间,容易引发不满情绪,严重影响了教师参训的积极性,极大地降低了培训效果。

2.培训内容安排不科学

由于培训内容是根据全校教师需求统一安排的,基本没有考虑到参训教师自身所具备的知识层次、学科背景、思想意识等方面的差异,因此很难体现学科差别。各学科教师混合在一起集中学习,导致理论知识讲解过多而与教学实际联系较少,参训教师难以从根本上真正掌握教育技术。

3.考核方式单一,培训评价体系不健全

目前,高校教师培训采取的考核方式往往比较单一,通常以参加理论考试或者提交相关论文、作业等作为培训的最终考核结果。此外,各级培训机构大多未能及时地对培训过程做出评价,同时缺少参训教师的自我评价环节,因而不利于教育技术培训工作的后续支持和进一步开展。如此看来,建立和完善培训评价体系显得尤为重要,这也是建立教师培训长效机制的关键所在。

二、分类技术与决策树ID3 算法的相关理论

针对参训教师在知识层次、学科背景、思想意识等方面存在的差异,笔者提出了“先分类后培训”的思路。在培训正式开始之前,可采用数据挖掘领域内的分类技术对参训教师进行分类,这样有利于激发参训教师的积极性,从而增强他们运用现代教育技术辅助教学的主动性和自觉性。

1.分类

作为数据挖掘的重要任务之一,分类[4]就是要找出一个类别的概念描述或预测未来的数据趋势,它代表了这类数据的整体信息。分类的目的是为了构造一个分类函数或分类模型(也称分类器),该模型能够把数据库中的数据项映射到给定的类别中。

2.相关概念及定义

根据信息论中的有关定义,熵一般用于测量一个非叶节点的信息量的大小。若存在n个相同概率的消息,则每个消息的概率p是1/n,此时一个消息传递的信息量应为-log2(p)=log2(n)。若给定的概率分布P=(p1, p2, … , pn),则由该分布传递的信息量称为P的熵I(P)。

若一个记录的集合T根据类别属性的值被分成相互独立的类C1,C2,…,Ck,则识别T的一个元素所属哪一类所需要的信息量是INFO(T)=I(P),其中P是(C1, C2, … , Ck)的概率分布。

若先根据非类别属性X的值将T分成集合T1,T2,…,Tn,则INFO(X, T)是在已得到X的值后确定T中一个元素的类别属性时所需要的信息量,可通过确定Ti的加权平均值来得到,增益Gain(X,T)=INFO(T)-INFO(X, T)。

因此,可利用Gain(X, T)将属性进行排列,并可构造一棵决策树,其中每一个节点在属性中都是具有最大增益的一个,从而不必考虑来自于根的路径。

3.决策树ID3算法

决策树ID3算法[4]是由Quinlan首先提出来的。该算法是以信息论为基础、以信息熵和信息增益度为衡量标准实现对数据的归纳分类的。给定一个非类别属性C1,C2,…,Cn的集合、类别属性C及记录的训练集T之后,可以用ID3算法构造一棵决策树,其中R是一个非类别属性集合,具体算法如下:

若T为空,返回一个值为无效的单个节点;

若T是由其他均为相同类别属性值的记录组成,返回一个带有该值的单个节点;

若R为空,则返回一个单节点,其值为在T的记录中找出的频率最高的类别属性值(这时将出错,即对记录进行了误分类),将R中属性之间具有最大Gain(D, T)值的属性赋给D;

将属性D的值赋值给{dj,j=1, 2, … , m};

将分别由对应于D的值为dj的记录组成的T的子集赋值给{tj,j=1, 2, … , m};