首页 > 文章中心 > 量子计算的特性

量子计算的特性

量子计算的特性范文第1篇

Mirco A.Mannucci The University of Queensland,Australia

Quantum Computing for

Computer Scientists

2008, 384pp.

Hardcover

ISBN 9780521879965

N.S.扬诺夫斯基等著

量子计算是计算机科学、数学和物理学的交叉学科。在跨学科研究领域中,量子计算开创了量子力学的许多出人意料的新方向,并拓展了人类的计算能力。本书直接引领读者进入量子计算领域的前沿,给出了量子计算中最新研究成果。该书从必要的预备知识出发,然后从计算机科学的角度来介绍量子计算,包括计算机体系结构、编程语言、理论计算机科学、密码学、信息论和硬件。

全书由11章组成。1.复数,给出了复数的基本概念、复数代数和复数几何;2.复向量空间,以最基本的例子Cn空间引入,介绍了复向量空间的定义、性质和例子,给出了向量空间的基和维数、内积和希尔伯特空间、特征值和特征向量、厄米特矩阵和酉矩阵、张量积的向量空间;3.从古典到量子的飞跃,主要内容有古典的确定性系统、概率性系统、量子系统、集成系统;4.基本量子理论,主要有量子态、可观测性、度量和集成量子系统;5.结构框架,主要包括比特和量子比特、古典门、可逆门和量子门;6.算法,包括Deutsch算法、Deutsch-Jozsa算法、Simon的周期算法、Grover搜索算法和Shor因子分解算法;7.程序设计,包括量子世界的程序设计、量子汇编程序设计、面向高级量子程序设计和先于量子计算机的量子计算;8.理论计算科学,包括确定和非确定计算、概率性计算和量子计算;9.密码学,包括古典密码学、量子密钥交换的三个协议(BB84协议、B92协议和EPR协议)、量子电子传输;10.信息论,主要内容有古典信息和Shannon熵值、量子信息和冯•诺依曼熵值、古典和量子数据压缩、错误更新码;11.硬件,主要包括量子硬件的目标和挑战、量子计算机的实现、离子捕集器、线性光学、NMR与超导体和量子器件的未来。最后给出了5个附录,附录A量子计算的历史,介绍了量子计算领域中的重要文献;附录B习题解答;附录C 使用MATLAB进行量子计算实验;附录D 了解量子最新进展的途径:量子计算的网站和文献;附录E选题报告。

本书适合计算机科学的本科学生和相关研究人员,也适合各级科研人员自学。

陈涛,硕士

(中国传媒大学理学院)

Chen Tao,Master

量子计算的特性范文第2篇

关键词:显著性因子;局部纹理特征;感兴趣区域提取;AdaBoost分类器;行人检测

中图分类号: TP391.4

文献标志码:A

0引言

行人检测一直是模式识别、机器视觉、图像处理等研究领域中的一项重要研究课题,广泛应用于视频监控系统、智能车辆控制、肢体动作分析等智能系统中。目前基于统计学习的行人检测方法主要由特征提取和分类学习两部分构成。此类方法中最为典型的是Dalal等[1]提出的基于方向梯度直方图(Histogram of Oriented Gradients, HOG)和支持向量机(Support Vector Machine, SVM)的行人检测方法,该方法能有效刻画人体边缘特征,在行人检测研究中取得了突破性的进展, 但它也存在特征维数高、计算复杂的问题。另外,不少学者还提出了其他的方法用以描述行人特征。Chen等[2]提出的基于人类视觉机制的韦伯特征(Weber Local Lescriptor,WLD)的方法,对光影变化有一定的鲁棒性; Wu等[3]提出的利用线条描述人体局部轮廓的小边特征(Edgelet)在图像出现遮挡的情况下也有了较好的检测效果; Yu等[4]提出了利用光流法计算图像内部的运动信息进行统计建模的检测方法,能有效针对运动目标进行检测。除此之外,还有颜色特征、伽柏特征(Gabor)、协方差特征(Covariance, COV)、积分通道特征(Integral Channel Feature, ICF)等一系列的特征提取算法[5-7]。

在基于统计学习方法的行人检测算法中有两个因素对于检测结果有着至关重要的影响:一是分类器设计,二是行人的特征和标识集的建立。在真实场景中,行人和背景通常都是非静态的,可能存在各种变化。为了解决这些问题,行人特征的提取和描述必须做到高效和精确。局部二值模式(Local Binary Pattern, LBP)是一种描述图像纹理特征的有效算子,它具有单调变换不变性和旋转不变性的特点,对光照和周围环境的变化具有一定的鲁棒性[8]。显著性局部二值模式(Significant Factor Local Binary Pattern, SFLBP)则是在LBP算子的基础上融合了显著性因子,使得特征符合人类视觉快速搜索的规律,突出强调行人特征[9]。利用SFLBP特征结合AdaBoost分类器可提高分类器对于行人特征的区分度,有效地提高检测的精度,达到更好的检测效果。

1显著纹理结构

传统的行人检测方法主要是根据图像自身描述的信息提取出行人特征,再通过这些特征来判断图像中是否存在行人区域,一般可用于提取行人特征的信息有颜色、轮廓、边缘、结构等。本文先提取图像中的LBP纹理特征信息,然后在特征中融合显著性因子,突出图像中视觉显著区域的纹理特征,有利于分类器更好地对特征进行分类操作。

1.1 显著性描述因子

显著性描述因子(Significant Factor)主要是根据人类的视觉特性来描述图像显著性的算子[10]。依据人的视觉感知特性,显著性一般是由目标部分与背景区域的基于色彩和亮度特征的比值组成,局部显著性因子定义为邻域像素值与中心像素的像素值的之间的对比关系,具体表达式为:

G(Xc)=(∑p-1i=0(ΔXi))/Xc=(∑p-1i=0(Xi-Xc))/Xc(1

为统一描述图像中的局部显著性特征,对局部显著因子作归一化处理,进一步定义中心像素点的显著性因子为:

ξ(Xc)=arctan[G(Xc)]=arctan[∑p-1i=0(Xi-Xc)/Xc] (2)

其中:ξ(Xc)的取值范围是[-π/2,π/2],另外将ξ(Xc)映射到矩形算子框架中,将矩形框划分为N个区间Si(i=0,1,…,N-1),每个区间Si的显著性因子权值也会因区间位置的不同略有差异。ξ(Xc)的值越大,表明该处的显著性比值越强。图1显示了两种常见的分块矩形结构的显著性因子权值。

图片

图1分块矩形结构权重

1.2结合显著性因子的纹理结构

LBP算子主要用于描述图像的局部纹理结构,它在物体分类、织物检测、运动目标检测中都有广泛应用[11]。式(3)、(4)给出了计算LBP特征值的基本公式:

LBP(Pc)=∑p-1n=02ns(gn-gc)(3

s(x)=1, x≥00, x

最基本的LBP算子是定义在3×3的窗口上的,图2(c)中的像素点Pc计算出来的LBP值为10011011。若对整幅图中每个像素都提取LBP值,那么组成的新图像则是由LBP特征构成的二次特征描述图,也就是得到了整幅图的LBP特征。LBP算子目前已有若干变形和改进,以提高其对纹理特征的描述效果,例如LBP均匀模式、LBP旋转不变模式、LBP等价模式等[12]。

根据行人在图像中包含较多垂直边缘的特点,本文采用一种基于垂直边缘信息的改进LBP算子LBPxi(Pc)作为纹理特征提取的算法。显著性因子具有突出图像中前景目标、削弱背景的作用,因此算法模拟人类的视觉注意机制,根据图像不同区域的显著性因子权值ξ(Xc)来调整LBP纹理值,建立图像的显著性纹理特征,此特征即为SFLBP特征。在融合显著性因子和LBP特征的过程中需先计算出每个局部区域的显著性因子ξ(Xc),将其映射至原始像素空间构成一组特征向量,然后将特征向量转换成核矩阵,并利用此核矩阵逐个遍历调整LBP特征值,这样就构成了描述显著性纹理特征的SFLBP算子。该算子更加精确地描述了图像中关键信息的纹理特征,也更加符合人类的视觉注意机制,增强了在图像中目标区域的显著性。

图片

图2LBP算子计算示例图

第11期

马强等:融合显著性因子的行人纹理提取

计算机应用 第35卷

2基于SFLBP特征的行人检测

2.1SFLBP特征提取的基本算法

SFLBP算子在图像纹理特征的基础上融合了显著性因子,更加符合人类视觉处理机制,具有能够重点突出图像中感兴趣区域的特征、削弱非目标区域的纹理特征的优点。因此,本文用SFLBP算子来提取待检测图像中的纹理特征,并形成统一的特征向量。为了进一步提高纹理特征的描述精度,突出不同区域的局部特点,可以采取局部纹理特征的思想[12],将原始图像分成多个部分,分别提取出图像的局部显著性纹理特征,并计算其统计直方图,然后形成基于局部信息的SFLBP特征向量,这样可以重点突出有效区域的特征信息,减小特征向量中的信息冗余度。此过程的算法步骤如下所示:

输入训练集图像样本。

1) 确定图像最合适的分块数量N0×N0;

2) 对分块后的局部样本图像根据式(1)、(2)计算显著性因子权值ξ(Xc);

3) 根据式(3)、(4)计算局部样本图像的LBP特征值LBPxi(Pc),并根据步骤2)中的显著性因子调整LBP特征权值,计算得出SFLBP特征值;

4) 重复步骤2)~3),直至所有的分块图像都完成计算,然后统计各区域的SFLBP特征值,得到完整图像的SFLBP特征向量;

5) 对样本集所有样本图像执行步骤2)~4)操作,得到SFLBP特征向量集;

6) 将步骤5)中的特征向量集输入分类器,训练分类器参数。

2.2分类器的选择和训练

在上述的算法步骤中,分类器的参数训练和对特征向量的分类结果直接影响到最终的检测效果。AdaBoost分类器基本思想是对分类器多次迭代训练以提高分类效果,迭代过程中可以排除掉一部分不必要的训练数据,突出关键数据的训练结果[13]。因而对于SFLBP算子中的显著性较高的部分有正向激励的作用,提高SFLBP算子的检测准确率。故而实验采用AdaBoost分类器对SFLBP特征向量进行分类实验。

分类器训练的具体过程是将特征向量作为AdaBoost分类器的输入特征集,训练弱分类器,并根据训练结果的误差来反馈调节分类器参数,式(5)即为分类器误差的计算公式:

εj=∑Nt=1Dt(xt)hj(xt)-yt(5)

其中hj(x)为弱分类器的分类函数,具体公式如式(6)所示:

hj(x)=1,pjgj(x)

在弱分类器达到指定的准确率后,需根据样本分类正确与否调整各个样本权值Di(Xi),并重新生成新的特征向量集合; 接着继续迭代训练分类器,直至最后分类器达到理想的分类效果; 最后将所有弱分类器合成最终的强分类器公式如(7)所示:

H(x)=1,∑Tt=1αtht(x)≥12∑Tt=1αt0,其他 (7

最终训练出的分类器就可以用来对需要检测的样本图像进行行人检测实验。具体的步骤如图3所示。

图片

图3SFLBP结合AdaBoost的实验流程

3实验结果与分析

INRIA数据集包括各种不同光照条件下、不同穿着、不同姿态和视角的行人数据。其中训练集有正样本614张,负样本1218张;测试集中含有正样本288张,负样本453张。本次测试中选取INRIA数据集作为本次实验的数据库,综合测试SFLBP算子在行人检测实验中的实际效果。

3.1SFLBP算子分块对比实验

在用SFLBP算子描述图像特征时,需选择合适的图像分块数目来计算SFLBP算子。为充分对比不同算法的实验效果,本文选择几种在行人检测领域常用的LBP特征描述算子LBP4-1、LBP8-2等一起对比实验,综合分析各个算子的特征向量的检测效果。表1中列出了这几种特征的检测精确度对比情况。

表格(有表名)

表1不同算子的检测准确度%

算子类别分块数1×12×23×34×45×5

基本LBP73.681.283.488.387.2

LBP4-183.489.391.092.491.3

LBP8-283.890.491.892.691.5

SFLBP86.493.694.295.094.7

横向分析表1中的数据,当分块数目比较小时,分块数目越大,局部特征描述越精确,这样检测效果越好;但当分块数目达到一定值后,再增加分块反而出现过拟合现象,目标区域的检测效率反而有所下降,基本上在分块数目为4×4的时候能取得最好的检测效果。另外,从SFLBP算子的实验数据可以看出在分块数目为9、16、25的时候该算子的检测准确率分别达93.6%、94.2%、94.7%,比基本的LBP算子和LBP4-1、LBP8-2这几种改进的算子的检测效果至少高出3%~4%。

3.2基于SFLBP算子的行人检测实验

实验先用SFLBP算子来描述图像的特征,生成对应的特征向量,然后将这些特征向量作为分类器的输入向量,利用AdaBoost分类器训练特征构成分类器。在迭代训练分类器过程中,一般来讲弱分类器数目越大,最后形成的总分类器的分类效果越好,但弱分类器的数目过大也会造成分类器数量庞大、计算复杂的问题。因此,在保证分类效果的同时尽量减小计算量也是设计分类器过程中需要考虑的问题。图4显示了SFLBP、HOG、Haar三种特征的迭代次数与误差率曲线。

图片

图4迭代次数与误差率曲线

从图4三种特征的误差率变化曲线中可以看出,当误差率趋于稳定后,SFLBP特征的误差率最小,具有最好的效果。而且单独观察SFLBP特征的误差率曲线可知迭代次数小于20时,分类器的误差随着迭代次数的增加会显著下降,迭代次数达到20以后误差率达到收敛,保持在一个稳定的幅度,系统保持稳定。

从上述实验结果可以看出当迭代次数为20时,误差率达到最低范围,同时计算程度也不会特别复杂。这样分类器迭代完成后总共生成20个弱分类器,利用这20个弱分类器即可构成完整的AdaBoost分类器。分类器训练完成后,接下来便对INRIA数据库中的测试样本进行实验,部分实验结果如图5所示。

图片

图5部分行人检测效果图

3.3SFLBP检测效果比较

为准确评估SFLBP算子的检测效果,本文采取目标检测中常用的准确率(Precision Rate, Pr)、召回率(Recall Rate, Rr)和F值(F1Measure, F1)等指标来评估该算法好坏,计算公式如式(8)~(10)所示:

Pr=正确检测的样本数正确检测的样本数+误判的样本数×100%(8

Rr=正确检测的样本数总的样本数×100%(9

F1=2×Pr×RrPr+Rr×100%(10

另外,为比较SFLBP算子与其他算法在实验中的准确率,本文一同对比了其他几种常见行人检测算法,实验中各个算法的准确率和召回率指标如表2所示。

表格(有表名)

表2不同方法的检测准确率比较

检测方法特征维度Pr/%Rr/%F1/%

HOG+

AdaBoost

127595.388.791.9

6094.688.391.3

Haar+

AdaBoost

85394.887.290.8

6094.186.590.1

SFLBP+

AdaBoost

106297.490.093.6

6096.589.392.7

从表2中数据可以看出,不管是使用初始维度特征进行检测,还是利用主成分分析(Principal Components Analysis, PCA)降维方法将特征降到60维后检测的结果可以看出,采用SFLBP算子的方法在准确率上平均要高出2%~3%。在召回率上,该方法要比采用HOG特征、Haar特征的方法也高出近3%,达到90%。另外,从F值也可以看出基于SFLBP算子的检测方法在实验中具有最好的检测效果。

4结语

SFLBP算子是一种改进的纹理特征提取算法,其主要的改进点是模拟人类视觉观察机理中的发散性及显著性特点,利用显著性因子调整图像中不同区域的LBP纹理特征,进一步突出行人的显著性特征,提高了特征的代表性和描述能力。在INRIA数据库上的实验结果显示采用SFLBP特征的AdaBoost检测方法比采用HOG特征、Haar特征的方法高出2%~3%,准确率能达到96%~97%。实际的行人检测系统由于光照、遮挡、背景变化等原因,其复杂度要远远高于本文实验的数据集。后续将从这几个方面去改善行人检测算法,提高算法的适用性和检测准确率。

参考文献:

[1] DALAL N, TRIGGA B. Histograms of oriented gradients for human detection[C]// Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2005: 886-893.

[2] CHEN J, SHAN S, HE C, et al. WLD: a robust local image descriptor[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9):1705-1720.

[3] WU B, NEVATIA R, LI Y. Segmentation of multiple, partially occluded objects by grouping, merging, assigning part detection responses[C]// Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2008: 1-8.

[4] YU X, HOU X, LU H, et al. Anomaly detection of fish school behavior based on features statistical and optical flow methods[J]. Transactions of the Chinese Society of Agricultural Engineering, 2014, 30(2):162-168.(于欣,侯晓娇,卢焕达,等.基于光流法与特征统计的鱼群异常行为检测[J].农业工程学报,2014,30(2):162-168.)

[5] SU S, LI S, CHEN S, et al. A survey on pedestrian detection[J]. Acta Electronica Sinica, 2012, 40(4): 814-820.(苏松志, 李绍滋, 陈淑媛, 等. 行人检测技术综述[J]. 电子学报, 2012, 40(4): 814-820.)

[6] ZENG B, WANG G, LIN X. Color selfsimilarity feature based realtime pedestrian detection[J]. Journal of Tsinghua University: Science and Technology, 2012, 52(4): 571-574.(曾波波,王贵锦,林行刚. 基于颜色自相似度特征的实时行人检测[J]. 清华大学学报: 自然科学版, 2012, 52(4): 571-574.)

[7] LIANG S, LIU Y, LI C. Face recognition research under unconstrained based on LBP and deep learning[J]. Journal of Communication, 2014, 35(6): 154-160.(梁淑芬,刘银华,李立琛. 基于LBP和深度学习的非限制条件下人脸识别算法[J]. 通信学报, 2014, 35(6): 154-160.)

[8] WANG W, HUANG F, LI J, et al. Face description and recognition using multiscale LBP feature[J]. Optics and Precision Engineering, 2008, 16(4):696-705.(王玮, 黄非非, 李见为, 等. 使用多尺度 LBP 特征描述与识别人脸[J]. 光学精密工程, 2008, 16(4):696-705.)

[9] SUN R, CHEN J, GAO J. Fast pedestrian detection based on saliency detection and HOGNMF features [J]. Journal of Electronics and Information Technology, 2013, 35(8): 1921-1926.(孙锐, 陈军, 高隽. 基于显著性检测与 HOGNMF 特征的快速行人检测方法[J]. 电子与信息学报, 2013, 35(8):1921-1926.)

[10] XIAO D, XIN C, ZHANG T, et al. Saliency texture structure descriptor and its application in pedestrian detection [J]. Journal of Software, 2014, 25(3):675-689.(肖德贵, 辛晨, 张婷, 等. 显著性纹理结构特征及车载环境下的行人检测[J]. 软件学报, 2014, 25(3):675-689.)

[11] AHONEN T, HADID A, PIETIKAINEN M. Face recognition with local binary patterns[C]// Proceedings of the 8th European Conference on Computer Vision. Berlin: Springer, 2004: 469-481.

量子计算的特性范文第3篇

能耗是个大问题

为突破“摩尔定律”的极限,除了不断提升集成电路计算机运算效率,各种新型计算机也在科学家脑中酝酿。以量子计算机为例,其基本数据单位依然是比特0或1。但与传统计算机不同,一个量子比特可以同时表现为0和1,两个量子比特就是00、01、10、11四种状态。以此类推,300个量子比特承载的数据量便可达到2的300次方,超过整个宇宙的原子数量总和,由此带来运算速度的极大提升。

除了提高性能,降低计算机系统能耗更是个棘手问题。据专家介绍,目前国际上高性能计算的主流体系结构,都建立在上世纪40年代冯·诺伊曼的理论之上,随着时展已面临不少瓶颈。例如,实际应用性能仅有峰值性能的5%10%,许多性能被“放空”;用户无法根据实际应用需求自主参与计算控制,实用性差。这两个缺陷导致计算系统能耗高居不下,目前位列世界前10名的高性能计算系统功耗均在数兆瓦以上,相当于一个中等城市公共照明用电的总量。各大互联网公司的数据中心能耗同样惊人,谷歌公司云计算中心每天的耗电量和整个日内瓦市的耗电量相当。如果未来计算机只是简单地做服务器数量叠加,而不考虑能耗问题,其用电成本将是天文数字。

向结构体系动刀

如何让计算机系统实现真正的高效能运算?邬江兴院士大胆选择了向整个计算机体系架构“动刀”,提出了一种全新的“PRCA体系结构”。在这种新体系下,计算机变得更加“聪明”,它不仅能分析、识别各种应用的类型、需要动用的计算资源,还能据此“调兵遣将”,做到“减有余,补不足”。例如,一个由100台服务器组成的数据中心,50台用于处理和电子邮件相关的指令,50台用于提供视频点播服务。在传统的计算架构下,这种任务分派是一成不变的;但在PRCA架构下,如果视频服务过于集中,50台服务器应接不暇,那么原本为邮件服务待命的服务器,也能 “增援”。这样一来,计算机资源的可持续利用率提高,硬件的更新换代频率有可能将不再频繁。由于所有的计算能力都用在“刀刃”上,整个系统能耗也大大降低。

和传统计算机 “铁板一块”的体系架构不同,这种新概念计算机最大的特点是“会认知”、“柔性可变”。当外界指令输入,算核能根据需要组合出不同的CPU、GPU或者存储器结构来支持运算。结构变成什么样子,完全取决于指令的内容。邬江兴院士将此类比为碳原子碳原子排列结构不同,既可以产生出世界上最坚硬的金刚石,也能够变成较柔软的石墨。

颠覆性创新有待验证

这种动态可变的体系架构,通过软件和硬件的共同创新实现。软件方面包括一系列新型系统,硬件则涉及CPU、存储结构等方面的改革。对于传统计算机体系结构来说,这相当于一次颇具颠覆性的创新,需要进一步实践验证。项目组也坦言,目前学界对此尚有不同看法和意见。但至少有一点已在业内达成基本共识:从具体的应用需求出发,重新设计计算机的结构,实现“智能”调配资源,很可能是未来高效能计算机的发展方向。

量子计算的特性范文第4篇

多年来虽然摩尔定律已走到极限的说法不绝于耳,但是半导体工艺的进步却从来没有停止。目前特征尺寸32nm的半导体工艺已成熟,大量用于高端芯片的制造。在不断缩小工艺尺寸的同时,结构上的改进也在进行。2011年5月4日,Intel宣布经过近十年的研究,在半导体技术上取得革命性突破,将推出被称为三栅极(Tri-Gate)的全新3D架构晶体管设计,并将在年内开始批量制造。传统的二位平面栅极结构被竖起的3D硅鳍状物代替,实现在晶体管在“关”状态下的低功耗,并可实现“开”、“关”状态的快速切换,从而可以实现高性能、低功耗的电子器件。

多核处理器的成熟

2006年出现的双核处理器标志着以主频论英雄的年代正式结束开始,处理器领域已进入一个多核时代,无论是业界巨 擘Intel还是AMD都已经明确表示,今后CPU将会是双核乃至多核的世界。多核设计为摩尔定律带来了新的生命力,在保持较低的时钟频率的同时,提高并行处理能力和计算密度,大大减少了散热和功耗。多核处理器提供了高性价比和高效节能的新途径,可以缓解当今处理器设计所面临的各种挑战。多核处理器是已成为主流处理器的发展趋势。

由于多核技术仍然是基于传统的“冯·诺依曼”结构,处理器内核数量的增加并没有缓解并行处理技术中算法并行化、并行编程的难题,多核的性能并不能充分发挥。因此近年来内核数量增加的速度有所减缓,集成多种功能电路的混合异构多核成为流行的结构,目前Intel的酷睿二代处理器采用四核结构,内部集成显示芯片。

超级计算机从高性能到高效能转变

国外历来强调高性能计算器在国家安全关键领域的战略作用。美国早年提出的“加速战略计算创新”(ASCI)计划,其目的就是在全球全面禁止核试验的情况下,美国能够继续保持它的核威慑能力和核垄断地位。主要的手段是利用数学方程和三维建模仿真核武器的爆炸效果,确保现有库存核武器的性能、安全和可靠性。从1997年到2007年,为ASCI计划专门研制的高性能计算机系统,已经经历了五代,2004年达到100万亿次,2010年达到1000万亿次量级的高性能计算机,预计2015年达到万万亿次以上量级。我国的“天河一号”目前名列超级计算机TOP500榜首,速度高达4700万亿次。

除了性能的不断提高,计算机处理的效能也在军事作战领域逐步得到重视。据估算,一台持续千万亿次计算的超级计算机系统可能需要消耗20兆瓦或更高的功耗,需要专门建设发电站,每年的电费开销可能高达1亿元以上。根据超级计算机世界500强排行榜重新排序的绿色500强排行榜中,IBM的超级计算机排名榜首,功耗效率达到1684Mflops/瓦,“天河一号”排在第十位,为635 Mflops/瓦。

不断探索采用新器件、新原理的计算机

以硅晶体管为基本单元的传统计算机在小型化的过程中将逐步接近其物理极限。研究表明,计算机运行速度的快慢与芯片之间信号传输的速度直接相关,然而,目前普遍使用的硅二氧化物在传输信号的过程中会吸收掉一部分信号,从而延长了信息传输的时间。

据报道,美国纽约伦斯雷尔·保利技术公司的科学家发明了一种利用空气的绝缘性能来成倍地提高计算机运行速度的新技术:芯片或晶体管之间由胶滞体包裹的导线连接,“空气胶滞体”导线几乎不吸收任何信号,因而能够更迅速地传输各种信息,可以成倍地提高计算机的运行速度。

将纳米技术与计算机制造技术相结合的纳米计算机(Nanometer Computer)也是很有发展前景。现在纳米技术正从MEMS(微电子机械系统)起步,把传感器、电动机和各种处理器都放在一个硅芯片上而构成一个系统。应用纳米技术研制的计算机内存芯片,其体积不过数百个原子大小,相当于人的头发丝直径的千分之一。纳米计算机不仅几乎不需要耗费任何能源,而且其性能要比今天的计算机强大许多倍。专家预测,10年后纳米技术将会走出实验室,成为科技应用的一部分。纳米计算机体积小、造价低、存量大、性能好,将逐渐取代芯片计算机,推动计算机行业的快速发展。

此外,以生物计算机、光计算机和量子计算机为代表的新概念计算机研究也非常引人注目。

生物计算机(Biology computer)

生物采用了生物芯片,由生物工程技术产生的蛋白质分子构成(所以又称分子计算机)。在这种芯片中,信息以波的形式传播,运算速度比当今最新一代计算机快10万倍,能量消耗仅相当于普通计算机的十分之一,并且拥有巨大的存储能力。由于蛋白质分子能够自我组合,再生新的微型电路,使得生物计算机具有生物体的一些特点,如能发挥生物本身的调节机能自动修复芯片发生的故障,还能模仿人脑的思考机制。

美国已研制出生物计算机分子电路的基础元器件,可在光照几万分之一秒的时间内产生感应电流。以色列科学家已经研制出一种由DNA分子和酶分子构成的微型分子计算机。预计20年后,分子计算机将进入实用阶段。

光子计算机(Optical Computer)

光子计算机利用光作为信息的传输媒体。由于光子具有电子所不具备的频率及偏振特征,从而大大提高了传载信息的能力。此外,光信号传输根本不需要导线,即使在光线交汇时也不会互相干扰、互相影响。一块直径仅2厘米的光棱镜可通过的信息比特率可以超过全世界现有全部电缆总和的300多倍。光脑还具有与人脑相似的容错性,如果系统中某一元件遭到损坏或运算出现局部错误时,并不影响最终的计算结果。目前光脑的许多关键技术,如光存储技术、光存储器、光电子集成电路(OIC)等都已取得突破。科学家们预计,光子计算机的进一步研制将是21世纪高科技领域的重大课题。

量子计算机(Quantum Computer)

量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。它利用一种链状分子聚合物的特性来表示开与关的状态,利用激光脉冲来改变分子的状态,使信息沿着聚合物移动,从而进行计算。量子计算机能够实行量子并行计算, 其运算速度可能比目前计算机的PentiumⅢ晶片快10亿倍。除具有高速并行处理数据的能力外,量子计算机还将对现有的保密体系、国家安全意识产生重大的冲击。

量子计算的特性范文第5篇

【关键词】三对角线性方程组;分治策略;并行算法;算法可扩展性

一、概述

三对角线性方程组的求解是许多科学和工程计算中最重要也是最基本的问题之一。在核物理、流体力学、油藏工程、石油地震数据处理及数值天气预报等许多领域的大规模科学工程和数值处理中都会遇到三对角系统的求解问题。很多三对角线性方程组的算法可以直接推广到求解块三对角及带状线性方程组。由于在理论和实际应用上的重要性,近20年来三对角方程组的并行算法研究十分活跃。

大规模科学计算需要高性能的并行计算机。随着软硬件技术的发展,高性能的并行计算机日新月异。现今,SMP可构成每秒几十亿次运算的系统,PVP和COW可构成每秒几百亿次运算的系统,而MPP和DSM可构成每秒万亿次运算或更高的系统。

高性能并行计算机只是给大型科学计算提供了计算工具。如何发挥并行计算机的潜在性能和对三对角系统进行有效求解,其关键在于抓住并行计算的特点进行并行算法的研究和程序的设计与实现。另外,对处理机个数较多的并行计算系统,在设计并行算法时必须解决算法的可扩展性,并对可扩展性进行研究和分析。

二、问题的提出

设三对角线性方程组为

AX=Y(1)

式中:A∈Rn×n非奇异,αij=0,。X=(x1,x2,…xn)TY=(y1,y2,…yn)T。

此系统在许多算法中被提出,因此研究其高性能并行算法是很有理论和实际意义的。

三、并行求解三对角系统的直接解法

关于三对角线性方程组的直接求解已经有大量并行算法,其中Wang的分裂法是最早针对实际硬件环境,基于分治策略提出的并行算法。它不仅通信结构简单,容易推广到一般带状线性方程组的并行求解,而且为相继出现的许多其它并行算法提供了可行的局部分解策略。

近20年来求解三对角方程组的并行算法都是基于分治策略,即通过将三对角方程组分解成P个小规模问题,求解这P个小规模问题,再将这些解结合起来得到原三对角方程组的解。一般求解三对角方程组的分治方法的计算过程可分为3个阶段:一是消去,每台处理机对子系统消元;二是求解缩减系统(需要通信);三是回代,将缩减系统的解回代到每个子系统,求出最终结果。具体可分为以下几类:

(一)递推耦合算法(RecursiveDoubling)

由Stone于1975年提出,算法巧妙地把LU分解方法的时序性很强的递推计算转化为递推倍增并行计算。D.J.Evans对此方法做了大量研究。P.Dubois和G.Rodrigue的研究表明Stone算法是不稳定的。

(二)循环约化方法(CyclicReduction)

循环约化方法由Hockey和G.Golub在1965年提出,其基本思想是每次迭代将偶数编号方程中的奇变量消去,只剩下偶变量,问题转变成求解仅由偶变量组成的规模减半的新三对角方程组。求解该新方程组,得到所有的偶变量后,再回代求解所有的奇变量。即约化和回代过程。由于其基本的算术操作可以向量化,适合于向量机。此方法有大量学者进行研究,提出了许多改进的方法。例如,Heller针对最后几步的短向量操作提出了不完全循环约化方法;R.Reulter结合IBM3090VF向量机的特点提出了局部循环约化法;P.Amodio针对分布式系统的特点改进了循环约化方法;最近针对此方法又提出对三对角方程组进行更大约化步的交替迭代策略。

(三)基于矩阵乘分解算法

将系数矩阵A分解成A=FT,方程Ax=b化为Fy=b和Tx=y两个方程组的并行求解。这种算法又可以分为两类:

1.重叠分解。如Wang的分裂法及其改进算法就属于这一类。P.Amodio在1993年对这类算法进行了很好的总结,用本地LU、本地LUD和本地循环约化法求解,并在1995年提出基于矩阵乘分解的并行QR算法。H.Michielse和A.VanderVorst改变Wang算法的消元次序,提出了通信量减少的算法。李晓梅等将H.Michielse和A.VanderVorst算法中的通信模式从单向串行改为双向并行,提出DPP算法,是目前最好的三对角方程组分布式算法之一。2000年骆志刚等中依据DPP算法,利用计算与通信重叠技术,减少处理机空闲时间取得了更好的并行效果。此类算法要求解P-1阶缩减系统。

2.不重叠分解。例如Lawrie&Sameh算法、Johsoon算法、Baron算法、Chawla在1991年提出的WZ分解算法以及Mattor在1995年提出的算法都属于这一类。此类算法要求解2P-2阶缩减系统。

(四)基于矩阵和分解算法

将系数矩阵分解成A=Ao+A,这类算法的共同特点是利用Sherman&Morrison公式将和的逆化为子矩阵逆的和。按矩阵分解方法,这种算法又可分为两类:

1.重叠分解。这类算法首先由Mehrmann在1990年提出,通过选择好的分解在计算过程中保持原方程组系数矩阵的结构特性,具有好的数值稳定性,需要求解P-1阶缩减系统。

2.不重叠分解。Sun等在1992年提出的并行划分LU算法PPT算法和并行对角占优算法PDD算法均属于这一类。需要求解2P-2阶缩减系统。其中PDD算法的通讯时间不随处理机的变化而变化,具有很好的可扩展性。X.H.Sun和W.Zhang在2002年提出了两层混合并行方法PTH,其基本思想是在PDD中嵌入一个内层三对角解法以形成一个两层的并行,基本算法是PDD,三对角系统首先基于PDD分解。PTH算法也具有很好的可扩展性。四、并行求解三对角系统的迭代解法

当稀疏线性方程组的系数矩阵不规则时,直接法在求解过程中会带来大量非零元素,增加了计算量、通信量和存储量,并且直接法不易并行,不能满足求解大规模问题的需要。因此通常使用迭代法来求解一般系数线性方程组和含零元素较多三对角线性方程组。迭代法包括古典迭代法和Krylov子空间迭代法。

古典迭代法包括Jacobi、Gauss-Seidel、SOR、SSOR等方法。通常采用红黑排序、多色排序和多分裂等技术进行并行计算。由于古典迭代法有收敛速度慢、并行效果不好等缺点,目前已较少用于直接求解大型稀疏线性方程组,而是作为预条件子和其它方法(如Krylov子空间方法)相结合使用。

Krylov子空间方法具有存储量小,计算量小且易于并行等优点,非常适合于并行求解大型稀疏线性方程组。结合预条件子的Krylov子空间迭代法是目前并行求解大型稀疏线性方程组的最主要方法。

给定初值X0,求解稀疏线性方程组AX=Y。设Km为维子空间,一般投影方法是从m维仿射子空间X0+Km中寻找近似解Xm使之满足Petrov-Galerkin条件

Y-AXm┻Lm

其中Lm为另一个维子空间。如果Km是Krylov子空间,则上述投影方法称为Krylov子空间方法。Krylov子空间Km(A,r0)定义为:

Km(A,r0)=span{r0,Ar0,A2r0,…,Am-1r0}

选取不同的Km和Lm就得到不同的Krylov子空间方法。主要算法包括四类:基于正交投影方法、基于正交化方法、基于双正交化方法、基于正规方程方法。

Krylov子空间迭代法的收敛速度依赖于系数矩阵特征值的分布,对于很多问题,直接使用迭代法的收敛速度特别慢,或者根本不收敛。因此使用预条件改变其收敛性,使中断问题可解,并加速收敛速度是需要的。目前人们研究的预条件技术可分为四类:采用基于矩阵分裂的古典迭代法作为预条件子、采用不完全LU分解作预条件子、基于系数矩阵近似逆的预条件子、结合实际问题用多重网格或区域分解作预条件子。对Krylov子空间和预条件Krylov子空间方法有详细的讨论。

预条件Krylov子空间方法的并行计算问题一直是研究热点,已提出了一系列好的并行算法。目前预条件Krylov子空间方法的计算量主要集中在矩阵向量乘上。虽然学者们做了大量的研究工作,但是还没找到效果好,又易于并行的预条件子。

需要特别指出的是,对于一般线性代数方程组的并行求解,其可扩展并行计算的研究已相对成熟,并已形成相应的并行软件库,如美国田纳西亚州立大学和橡树岭国家实验室研制的基于消息传递计算平台的可扩展线性代数程序库ScaLAPACK和得克萨斯大学开发的界面更加友好的并行线性代数库PLAPACK。我们借鉴其研究成果和研究方法,对三对角线性方程组并行算法的研究是有帮助的。

五、结语

三对角线性方程组的直接解法,算法丰富,程序较容易实现。但计算过程要增加计算量,并且大部分算法都对系数矩阵的要求比较高。迭代解法适合于非零元素较多的情况,特别是结合预条件子的Krylov子空间迭代法已成为当前研究的热点。

尽管三对角系统并行算法的研究取得了很多成果。但是还存在一些问题:直接法中,分治策略带来计算量和通信量的增加,如何减少计算量和通信量有待于进一步的研究;目前直接算法均基于分治策略,如何把其它并行算法设计技术,如平衡树和流水线等技术应用到三对角系统的并行求解中也是需要引起重视的方向;对于非对称系统还没找到一种通用的Krylov子空间方法;Krylov子空间方法的并行实现时仅考虑系数矩阵与向量乘,对其它问题考虑不够;以往设计的并行算法缺乏对算法可扩展性的考虑和分析。

量子计算的特性范文第6篇

【关键词】三对角线性方程组;分治策略;并行算法;算法可扩展性

一、概述

三对角线性方程组的求解是许多科学和工程计算中最重要也是最基本的问题之一。在核物理、流体力学、油藏工程、石油地震数据处理及数值天气预报等许多领域的大规模科学工程和数值处理中都会遇到三对角系统的求解问题。很多三对角线性方程组的算法可以直接推广到求解块三对角及带状线性方程组。由于在理论和实际应用上的重要性,近20年来三对角方程组的并行算法研究十分活跃。

大规模科学计算需要高性能的并行计算机。随着软硬件技术的发展,高性能的并行计算机日新月异。现今,SMP可构成每秒几十亿次运算的系统,PVP和COW可构成每秒几百亿次运算的系统,而MPP和DSM可构成每秒万亿次运算或更高的系统。

高性能并行计算机只是给大型科学计算提供了计算工具。如何发挥并行计算机的潜在性能和对三对角系统进行有效求解,其关键在于抓住并行计算的特点进行并行算法的研究和程序的设计与实现。另外,对处理机个数较多的并行计算系统,在设计并行算法时必须解决算法的可扩展性,并对可扩展性进行研究和分析。

二、问题的提出

设三对角线性方程组为

AX=Y(1)

式中:A∈Rn×n非奇异,αij=0,。X=(x1,x2,…xn)TY=(y1,y2,…yn)T。

此系统在许多算法中被提出,因此研究其高性能并行算法是很有理论和实际意义的。

三、并行求解三对角系统的直接解法

关于三对角线性方程组的直接求解已经有大量并行算法,其中Wang的分裂法是最早针对实际硬件环境,基于分治策略提出的并行算法。它不仅通信结构简单,容易推广到一般带状线性方程组的并行求解,而且为相继出现的许多其它并行算法提供了可行的局部分解策略。

近20年来求解三对角方程组的并行算法都是基于分治策略,即通过将三对角方程组分解成P个小规模问题,求解这P个小规模问题,再将这些解结合起来得到原三对角方程组的解。一般求解三对角方程组的分治方法的计算过程可分为3个阶段:一是消去,每台处理机对子系统消元;二是求解缩减系统(需要通信);三是回代,将缩减系统的解回代到每个子系统,求出最终结果。具体可分为以下几类:

(一)递推耦合算法(RecursiveDoubling)

由Stone于1975年提出,算法巧妙地把LU分解方法的时序性很强的递推计算转化为递推倍增并行计算。D.J.Evans对此方法做了大量研究。P.Dubois和G.Rodrigue的研究表明Stone算法是不稳定的。

(二)循环约化方法(CyclicReduction)

循环约化方法由Hockey和G.Golub在1965年提出,其基本思想是每次迭代将偶数编号方程中的奇变量消去,只剩下偶变量,问题转变成求解仅由偶变量组成的规模减半的新三对角方程组。求解该新方程组,得到所有的偶变量后,再回代求解所有的奇变量。即约化和回代过程。由于其基本的算术操作可以向量化,适合于向量机。此方法有大量学者进行研究,提出了许多改进的方法。例如,Heller针对最后几步的短向量操作提出了不完全循环约化方法;R.Reulter结合IBM3090VF向量机的特点提出了局部循环约化法;P.Amodio针对分布式系统的特点改进了循环约化方法;最近针对此方法又提出对三对角方程组进行更大约化步的交替迭代策略。

(三)基于矩阵乘分解算法

将系数矩阵A分解成A=FT,方程Ax=b化为Fy=b和Tx=y两个方程组的并行求解。这种算法又可以分为两类:

1.重叠分解。如Wang的分裂法及其改进算法就属于这一类。P.Amodio在1993年对这类算法进行了很好的总结,用本地LU、本地LUD和本地循环约化法求解,并在1995年提出基于矩阵乘分解的并行QR算法。H.Michielse和A.VanderVorst改变Wang算法的消元次序,提出了通信量减少的算法。李晓梅等将H.Michielse和A.VanderVorst算法中的通信模式从单向串行改为双向并行,提出DPP算法,是目前最好的三对角方程组分布式算法之一。2000年骆志刚等中依据DPP算法,利用计算与通信重叠技术,减少处理机空闲时间取得了更好的并行效果。此类算法要求解P-1阶缩减系统。

2.不重叠分解。例如Lawrie&Sameh算法、Johsoon算法、Baron算法、Chawla在1991年提出的WZ分解算法以及Mattor在1995年提出的算法都属于这一类。此类算法要求解2P-2阶缩减系统。

(四)基于矩阵和分解算法

将系数矩阵分解成A=Ao+A,这类算法的共同特点是利用Sherman&Morrison公式将和的逆化为子矩阵逆的和。按矩阵分解方法,这种算法又可分为两类:

1.重叠分解。这类算法首先由Mehrmann在1990年提出,通过选择好的分解在计算过程中保持原方程组系数矩阵的结构特性,具有好的数值稳定性,需要求解P-1阶缩减系统。

2.不重叠分解。Sun等在1992年提出的并行划分LU算法PPT算法和并行对角占优算法PDD算法均属于这一类。需要求解2P-2阶缩减系统。其中PDD算法的通讯时间不随处理机的变化而变化,具有很好的可扩展性。X.H.Sun和W.Zhang在2002年提出了两层混合并行方法PTH,其基本思想是在PDD中嵌入一个内层三对角解法以形成一个两层的并行,基本算法是PDD,三对角系统首先基于PDD分解。PTH算法也具有很好的可扩展性。

四、并行求解三对角系统的迭代解法

当稀疏线性方程组的系数矩阵不规则时,直接法在求解过程中会带来大量非零元素,增加了计算量、通信量和存储量,并且直接法不易并行,不能满足求解大规模问题的需要。因此通常使用迭代法来求解一般系数线性方程组和含零元素较多三对角线性方程组。迭代法包括古典迭代法和Krylov子空间迭代法。

古典迭代法包括Jacobi、Gauss-Seidel、SOR、SSOR等方法。通常采用红黑排序、多色排序和多分裂等技术进行并行计算。由于古典迭代法有收敛速度慢、并行效果不好等缺点,目前已较少用于直接求解大型稀疏线性方程组,而是作为预条件子和其它方法(如Krylov子空间方法)相结合使用。

Krylov子空间方法具有存储量小,计算量小且易于并行等优点,非常适合于并行求解大型稀疏线性方程组。结合预条件子的Krylov子空间迭代法是目前并行求解大型稀疏线性方程组的最主要方法。

给定初值X0,求解稀疏线性方程组AX=Y。设Km为维子空间,一般投影方法是从m维仿射子空间X0+Km中寻找近似解Xm使之满足Petrov-Galerkin条件

Y-AXm┻Lm

其中Lm为另一个维子空间。如果Km是Krylov子空间,则上述投影方法称为Krylov子空间方法。Krylov子空间Km(A,r0)定义为:

Km(A,r0)=span{r0,Ar0,A2r0,…,Am-1r0}

选取不同的Km和Lm就得到不同的Krylov子空间方法。主要算法包括四类:基于正交投影方法、基于正交化方法、基于双正交化方法、基于正规方程方法。

Krylov子空间迭代法的收敛速度依赖于系数矩阵特征值的分布,对于很多问题,直接使用迭代法的收敛速度特别慢,或者根本不收敛。因此使用预条件改变其收敛性,使中断问题可解,并加速收敛速度是需要的。目前人们研究的预条件技术可分为四类:采用基于矩阵分裂的古典迭代法作为预条件子、采用不完全LU分解作预条件子、基于系数矩阵近似逆的预条件子、结合实际问题用多重网格或区域分解作预条件子。对Krylov子空间和预条件Krylov子空间方法有详细的讨论。

预条件Krylov子空间方法的并行计算问题一直是研究热点,已提出了一系列好的并行算法。目前预条件Krylov子空间方法的计算量主要集中在矩阵向量乘上。虽然学者们做了大量的研究工作,但是还没找到效果好,又易于并行的预条件子。

需要特别指出的是,对于一般线性代数方程组的并行求解,其可扩展并行计算的研究已相对成熟,并已形成相应的并行软件库,如美国田纳西亚州立大学和橡树岭国家实验室研制的基于消息传递计算平台的可扩展线性代数程序库ScaLAPACK和得克萨斯大学开发的界面更加友好的并行线性代数库PLAPACK。我们借鉴其研究成果和研究方法,对三对角线性方程组并行算法的研究是有帮助的。

五、结语

量子计算的特性范文第7篇

关键词 电子文档 加密 信息安全 泄密风险

中图分类号:TP309.2 文献标识码:A DOI:10.16400/ki.kjdkx.2015.11.030

Study and Simulation on Risk Estimation Model of Electronic Documents

GUAN YanJun[1][2], LIU Jing[1][2], SHI Jin[1][2]

([1]Beijing HaiTaiFangyuan High Technology Co Ltd, Beijing 100193;

[2]Laboratory of Electronic Records Authenticity Identification and Preservation, Beijing 100193)

Abstract Electronic document data communication can easily lead to leak during the process of transmission and storage, put forward the corresponding electronic document encryption algorithm, realization of electronic documents secret communication and storage. Is proposed based on SF - MAX - Log - MAP decoding algorithm, the parallel implementation of the electronic document information encryption and leak risk assessment. Build a data analysis model of electronic document, using data check wrong words.if structure analysis method for feature extraction, similarity of SF - MAX - Log - MAP parallel decoding, realize the electronic document leak risk assessment and prediction algorithm is improved. The simulation results show that this model can effectively implement encryption transmission and storage of electronic documents, prediction accuracy is higher, high detection probability, shows the better performance.

Key words electronic documents; encryption; information security; risk of leakage

0 引言

随着信息化对抗与反对抗技术的发展,电子文档的安全性受到人们关注。电子稳定的数据通信传输和存储过程中容易导致泄密,研究电子文档泄密风险估计模型,提出对应的电子文档加密算法,实现电子文档的保密通信和存储及相关的算法研究受到人们的重视。

传统方法中,对电子文档的泄密风险估计和电子文档的加密传输方法主要有Turbo码编码算法,传统的Turbo码通常采用串行译码算法,一方面,若信息帧较大,会带来较大时延,不利于未来移动通信中信息的有效性传输,另一方面,该算法也存在计算复杂度与Turbo码性能不可兼顾的缺点,文献[3]提出了Turbo码的并行译码方式,即将接收码字分成M个子块,各子块进行并行译码。如若交织器设计不当,会造成两个或多个子译码器同时访问同一个内存,此时便需要设计比较复杂的硬件以解决内存争用问题。针对上述问题,本文提出了基于SF-MAX-Log-MAP并行译码算法,提高电子文档Turbo码的纠错性能,降低误码率。首先构建电子文档的数据特征分析模型,进行并行译码,实现对电子文档的泄密风险评估和预测算法改进,仿真实验证明,改进算法在提高电子文档的泄密风险预测性能和文档数据加密性能方面的实用价值。

1 电子文档信息特征提取和编码设计

首先进行了电子文档信息特征提取。本文此采用Turbo码的进行电子文档加密,主要来源于两部分:一是译码等待时延,串行译码器要等到整个数据块结束后方可译码,二是译码计算时延,计算量越大,时延越大。得到电子文档的泄密概率密度特征为:

= [, ], = 2,3,…, (1)

上述为每个电子文档算法编码码元的分布概率,在相空间中得到算术编码的Turbo码,通过参数来得到编码序列的特征函数为:

= () (2)

根据经典信息传递的量子理论,测量的结果可能为四种可能结果中的一个,概率为1/4。因此,一般情况下,Jam可以通过经典通道将他的探测结果告Jack,也可以选择其他的量子通道,从而实现对电子文档的编码设计。

2 电子文档的信息加密和泄密风险估计算法

在上述进行电子文档信息特征提取和编码设计的基础上,提出了基于SF-MAX-Log-MAP并行译码算法,实现对电子文档的信息加密和泄密风险估计。本文采用量子编码理论,有以下两个方面的优点:

(1)量子力学的测不准原理,测不准,也就无法实现破解解密了;

(2)量子不可克隆定理,无法克隆就保证了量子不被二次使用,所以保密性能大大提高。

传统方案中采用基于门限的访问控制策略,把电子文档数据加密算法首先置顶与用户端,本文基于CSBDLP公钥加密协议的多元线性回归隐私保护,现取明文空间矩阵和,经CSBDLP加密协议加密后得混叠谱跨层补偿规则为: () = ( + )・及 () = ( + )・。

得到电子文档的信息加密多维向量模型为:

= {,,,…,} (3)

通过反编译结果定变量的反向数据关联集,在时频空间中的同在一条直线上的两点(,)和(,)都满足直线方程式,把Tri-training迭代训练过程中和共同标记为(),得到相关函数为:

= {,,…,}{,,…,} (4)

通过上述设计,实现了电子文档的信息加密和泄密风险估计的优化模型构建。

3 仿真实验

为了测试本文设计的电子文档泄密风险估计的性能,进行仿真实验。构建办公自动化中的电子文档文本信息络分布式组合设备。利用TAG算法建立信息加密和泄密分析估计路径。采用垂直分层策略对文件格式进行CDC划分,其中SC定长分块大小为16 KB,平均大小为8 KB (最小长度为 2 KB,最大长度为 16 KB)。得到电子文档的信息特征加密编码输出结果如图1所示。从图可见,采用本算法能有效实现对电子文档的信息加密,编码输出具有规律性特征,避免了泄密风险。

为了对比算法在实现泄密风险估计的性能,计算不同算法下的电子文档的泄密数据检测命中率对比结果如图2所示。从图2可见,采用本文算法有效实现了对电子文档的数据风险评估和泄密数据的检测,提高了电子文档的安全性能。

4 结论

本文提出了基于SF-MAX-Log-MAP并行译码算法,提高电子文档Turbo码的纠错性能,降低误码率。首先构建电子文档的数据特征分析模型,采用检错码数据结构分析方法进行电子文档的语义相似度特征提取,

进行SF-MAX-Log-MAP并行译码,实现对电子文档的泄密风险评估和预测算法改进,仿真结果表明,采用本文算法能有效提高对电子文档的泄密风险预测性能,对泄密数据的检测概率较高,优化了泄密风险评估。

参考文献

[1] 黄佳庆,陶少国,熊志强等.网络编码关键理论问题研究[J].计算机应用研究,2008.25(8):2260-2264.

[2] 陈立山.网络编码的安全性分析与研究[D].西安:西安电子科技大学,2010.

[3] 尹恒,吴陈.混沌伪随机序列的产生及在网络安全中的应用[J].江苏船舶,2003.20(1):32-34.

[4] 付晓.防窃听和抗污染的低能耗安全网络编码方案研究[D].葫芦岛:辽宁工程技术大学,2012.

量子计算的特性范文第8篇

关键词:句子相似度;词语相似度;词序相似度;句法相似度;语义相似度

DOIDOI:10.11907/rjdk.161604

中图分类号:TP301

文献标识码:A文章编号文章编号:16727800(2016)009000402

基金项目基金项目:山东省自然科学基金项目(ZR2014FQ018)

作者简介作者简介:李秋明(1981-),女,山东济宁人,中国石油大学(华东)计算机与通信工程学院硕士研究生,研究方向为自然语言处理、句子相似度计算;张卫山(1970-),男,山东莱阳人,中国石油大学(华东)计算机与通信工程学院教授,研究方向为大数据处理和普适云计算;张培颖(1981-),男,辽宁盘锦人,中国石油大学(华东)计算机与通信工程学院讲师,研究方向为自然语言处理、未来网络架构和云计算。本文通讯作者为张培颖。

0引言

度量两个文本之间的语义相似度是自然语言处理领域中基础的研究课题。两个文本之间的语义相似度度量可以应用在许多自然语言处理任务中,例如:文本抄袭检测、查询结果评价以及自动问答系统等。

由于中文句法表达的多样性和中文标注语料库资源的缺乏,导致计算两个句子的相似度非常困难。研究人员只能利用有限的语料资源和句子的表层特征进行句子相似度计算。随着自然语言处理技术的迅速发展,学者对句子之间的语义相似度提出了许多计算方法。这些方法按照对语句的分析程度分为基于统计的方法和基于知识的方法。基于统计的方法借助大规模语料库计算句子中的词语或短语出现的频次,或者利用N-Grammar的方法计算短语出现的频次来度量两个句子之间的语义相似度。代表性方法有基于向量模型的方法[1]、句子相似模型和最相似句子查找算法[2];基于知识的方法主要是利用语义知识计算句子的相似度,比较有代表性的有:基于中文句子的依存关系计算句子之间的相似度[9]、多种层次融合的句子相似度计算模型[10]、一种改进的句子相似度计算模型[11]。

本文主要从中文句子所包含的多种特征角度出发,考虑中文句子的词形、词序、句法和语义4个方面特征,这4个特征在表达句子信息时各有侧重、互为补充。实验数据表明,该算法在计算句子相似度方面具有较高的准确率。

2实验结果分析

测试采用MSRP语料库中的句子。MSRP语料库中的句子是英文的,我们首先翻译成中文,然后利用本文方法进行句子相似度计算。

对比句子相似度算法有:TF-IDF方法、语义依存方法和本文方法,测试实验结果如表1所示。

从实验结果可以看出:本文提出的多特征融合句子相似度计算方法性能优于语义依存的计算方法,原因在于该方法综合考虑了中文句子中包含的词语、词序、句法和语义4种特征。我们对计算错误的13对中文句子仔细分析,发现产生计算错误的句子中包含未登录词,在进行句法分析时出现了错误。含有未登录词的句子在进行语义计算时出现错误,所以准确率也随之降低。

参考文献:

[1]张奇,黄萱菁,吴立德.一种新的句子相似度度量及其在文本自动摘要中的应用[J].中文信息学报,2004,19(2):9399.

[2]吕学强,任飞亮,黄志丹,等.句子相似模型和最相似句子查找算法[J].东北大学学报:自然科学版, 2003,24(6):531534.

[3]XIONG JING,LIU YUN TONG,YUAN DONG.Dependency syntactic tree supported sentence similarity computing[J].Information Technology Journal.2013,12(20):56855688.

[4]张培颖.多特征融合的语句相似度计算模型[J].计算机工程与应用,2010,46(26):136137.

[5]刘群,李素建.基于知网的词汇语义相似度计算[C].台北:第三届汉语词汇语义学研讨会,2002.

[6]夏天.中文信息相似度计算理论与方法[M].郑州:河南科学技术出版社, 2009.

[7]江敏,肖诗斌,王弘蔚,等.一种改进的基于《知网》的词语语义相似度计算[J].中文信息学报,2008,22(5):8489.

[8]赵彦锋,周晓红.领域本体的语义相似度算法研究[J].软件导刊,2015,14(12):4952.

[9]李彬,刘挺,秦兵,等.基于语义依存的汉语句子相似度计算[J].计算机应用研究,2003,20(12):1517.

[10]南铉国,崔荣一.基于多层次融合的语句相似度计算模型[J].延边大学学报:自然科学版,2007,33(3):191194.