首页 > 范文大全 > 正文

数据中心网络技术论文

开篇:润墨网以专业的文秘视角,为您筛选了一篇数据中心网络技术论文范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

1数据中心网络技术分析

随着以虚拟化技术和云计算的发展和成熟,数据中心的应用数据急剧增长,数据中心与外部网络之间将承载大规模的数据交流,并且数据中心流量是高动态和突发的,据AlbertGreenberg等对数据中心的流量分析[3],约80%的流量都是内部流量[4],这就要求数据中心内部网络必须具有高性能、高稳定性、高扩展性以及资源的高利用率。另一方面,虚拟机动态迁移技术在数据中心也得到了广泛的应用,它可以使得逻辑服务器在网络服务异常的情况下,自动将网络服务动态迁移到另外一台逻辑服务器上,并保证前后的IP和MAC地址不变,这就要求逻辑服务器迁移前后的网络处于同一个二层域中。由于客户要求虚拟机迁移的范围越来越大,大型的数据中心甚至会在不同机房、不同地域之间动态迁移,传统网络的三层结构及其使用的网络技术已经不能满足其要求。新的数据中心要求减少网络层次、实现网络扁平化管理,数据中心的大二层网络及支撑其运行的网络技术随之诞生了。传统数据中心网络中二层网络技术主要使用xSTP(如生成树协议STP、多生成树协议MSTP、快速生成树协议RSTP等)。用户构建网络时,为了保证其可靠性,通常会采用冗余链路和冗余设备,这样避让就会形成网络环路。而同一个二层网络处于同一个广播域下,广播报文在环路中会反复持续传送,形成广播风暴,瞬间即可导致端口阻塞和设备瘫痪。为了防止广播风暴,就必须防止网络环路的形成,但又要保证其可靠性,就只能将冗余设备和冗余链路变成备份设备和备份链路。即冗余的设备端口和链路在正常情况下被阻塞,不参与数据报文的转发,只有在当前转发的设备、端口、链路出现故障时,冗余的设备端口和链路才会被激活,使网络能够恢复正常。自动控制这些功能的就是xSTP。由于基于xSTP的网络具有收敛时间长、部署复杂、资源使用率低等缺点,不适合用于构建大型的数据中心网络。为了解决xSTP技术带来的问题,一些新的、适用于大型数据中心组网的二层网络技术正逐步被标准化并付诸实施。所谓“大二层”是指所有VLAN都可以延展到所有汇聚层、接入层交换机的VLAN结构,这与传统数据中心VLAN往往终结在接入层交换机的做法不同[5]。目前,常用于数据中心的网络技术主要有交换机虚拟化技术、TRILL(TransparentInterconnectionoflotsoflinks,多链路透明互联)技术、SPB(ShortestPathBridging,最短路径桥接)技术及其中几种技术的融合。

1.1交换机虚拟化技术二层网络的核心是环路问题,而环路问题是随着冗余设备和链路产生的,那么如果将相互冗余的两台或多台设备、两条或多条链路合并成一台设备和一条链路,从逻辑上形成单设备、单链路的网络结构,网络环路也就随之消失。尤其是交换机技术的发展,虚拟交换机从低端盒式设备到高端框式设备都已经广泛应用,已经具备了相当的成熟度和稳定度。交换机虚拟技术已经成为目前应用于数据中心网络解决方案的主要技术之一。交换机虚拟化技术又分为交换机横向虚拟化技术和交换机纵向虚拟化技术。1)交换机横向虚拟化技术。交换机横向虚拟化技术是将同一层次的多台设备虚拟成1台逻辑设备,作为1个网元设备进行管理配置,保证突发流量不丢包,物理/虚拟服务器在1个大二层域下,即插即用,避免部署复杂的STP,支持大容量MAC地址,消除二层网络环路,提高二层链路利用率;实现跨交换机的负载均衡,交换平台易于扩展。交换机横向虚拟技术的代表是VSS(Cisco)、IRF(H3C)、CSS(华为)、VSU(锐捷),其特点是应用成本低,部署简单。但这些技术都是各自厂商独立实现和完成的,只能在同一厂商的相同系列产品之间才能实现虚拟化。同时,由于高端框式交换机的性能和端口密度越来越高,对虚拟交换机的技术要求也越来越高,目前交换机的虚拟化密度最高为4:1,即将4台物理设备虚拟为1台逻辑设备。2)交换机纵向虚拟化技术。纵向虚拟化是将下游交换机虚拟成上游交换机的端口,以达到扩展交换机端口能力并且对交换机进行集中控制管理。纵向虚拟化结合传输技术的运用可以实现跨数据中心的互联,实现网络最大化的简化配置,其距离仅受限于所选的万兆以太网光纤长度。目前,较为成熟的纵向虚拟化技术是Cisco的FEX(FabricExten-der,交换矩阵扩展器)和H3C的VCF(VerticalCon-vergedFramework,纵向融合框架)[6]。

1.2隧道技术

隧道技术实际上是数据中心网络在数据平面上的虚拟化技术,就是在二层以太网报文外面再封装一层标识用于寻址转发。这样基于外层标识就可以做到多路径负载均衡和避免环路等。当前隧道技术的代表是TRILL[7]和SPB[8],都是通过借用IS-IS[9](IntermediateSystemtoIntermediateSystemRoutingProtocol,中间系统到中间系统路由选择协议)的计算和转发模式来实现二层网络的大规模扩展。这些技术的特点是可以构建比虚拟交换机技术更大的超大规模二层网络。

1.2.1TRILL技术分析TRILL是IETF为实现数据中心大二层扩展制定的一个标准。其核心思想是将成熟的三层路由的控制算法引入到二层交换中,对原先的二层报文重新进行隧道封装后转换到新的地址空间上进行转发。封装后的地址具有与IP类似的路由属性,具备大规模组网、最短路径转发、等价多路径、快速收敛、易扩展等诸多优势,从而规避xSTP等技术的缺陷,实现健壮的大规模二层网络。1)TRILL协议的几个重要概念RBridges[7、10]:路由桥(RoutingBridge,简称RB)。运行TRILL协议的设备均称为RB。根据RB在TRILL网络中的位置,又可将其分为IngressRB[10](报文进入TRILL网络的入节点)、TransitRB[10](报文在TRILL网络中经过的中间节点)和EgressRB[10](报文离开TRILL网络的出节点)。Nickname:RB在TRILL网络中的地址,也是其在TRILL网络中的唯一标识。Nickname由系统自动分配,不需配置。VLANX转发器:对源报文封装TRILL头后送入TRILL网络进行转发或者将TRILL网络的报文解封装还原报文后发送给目的用户。2)TRILL的封装格式TRILL封装是MAC-in-MAC方式,TRILL数据报文在原始以太网报文之前添加了TRILL头和外层以太网头。因此,在TRILL公共区域数据报文可以经过传统Bridge和Hub依靠外部Ethernet报头转发[11]。TRILL帧封装格式及报头格式如图1所示。3)TRILL工作原理TRILL协议在各RB之间通过周期性通告Hello报文以建立并维持邻居关系,在形成邻居关系的RB之间扩散链路状态包(Link-StatePacket,LSP),最终在全网RB上形成相同的链路状态数据库(LSDB)。各RB在LSDB的基础上使用最短路径优先(ShortestPathFirst,SPF)算法生成从自己到其他RB的路由转发表项,用以指导数据报文的转发。4)TRILL转发流程TRILL协议通过在各个RB之间相互发送Hello报文建立邻居,通过LSP扩散方式同步LSDB,此时,网络中每台RB拥有相同的LSDB,即整网拓扑。然后各RB以LSDB为基础,利用SPF算法计算本地到全网所有RB之间的最短路径以及出接口、下一跳等信息,结合LSDB中各RB的nickname信息,最终生成nickname转发表。TRILL网络接收到用户报文时,根据报文中包含的目的MAC地址,按照不同的转发流程进行转发:如果MAC地址为单播地址,按照单播报文转发流程进行转发;如果MAC地址为组播或广播地址,按照组播报文转发流程进行转发。单播报文的转发过程如图2所示。(1)当单播数据报文进入TRILL网络时,IngressRB为原始以太网报文先打上TRILL头,再打上外层以太网头(类似于IP报文前的MAC头),由此完成TRILL报文的封装。(2)此后,类似于IP报文在网络内或网络间的转发过程,各RB根据TRILL头中的EgressRBNickname将TRILL报文进行逐跳转发,直至送达EgressRB。在此过程中,外层以太网头在每一跳都要被修改,而TRILL头中只有HopCount值逐跳递减。(3)当TRILL报文到达EgressRB后被解封装还原成原始以太网报文,离开TRILL网络。当组播流量进入TRILL网络时,IngressRB负责选取一棵组播分发树进行流量转发,当TRILL网络中的RB设备存在不止一个下一跳时,则将组播报文复制多份,根据组播转发表转发到所有出接口。组播转发流程如图3所示。IngressRB(RB1)收到终端A发送的二层报文后,发现报文中携带的目的MAC地址是组播MAC地址,首先根据此报文所属VLAN选定一棵组播分发树(RB3)进行TRILL封装,将TRILL头部M位置1,即说明该报文为组播报文,然后根据RootRB的nickname查询TRILL组播转发表,获取出端口列表进行分发;TransitRB4接收到TRILL数据报文后,解析TRILL头部,发现M=1即判断该报文为组播报文,再根据Egressnickname查询对应的组播转发表,进行转发;RootRB接收到TRILL数据报文后,向所有出接口分发该报文;EgressRB对TRILL报文进行解封装,获取原始二层数据报文,然后在本地对应接口转发出去。由于TRILL网络中数据报文转发可以实现等价多路径(EqualCostMultipath,ECMP)和最短路径(shortestpaths),因此,采用TRILL组网方式可以极大提高数据中心数据转发效率,提高数据中心网络吞吐量。

1.2.2SPB技术分析SPB是IEEE组织针对数据中心大规模二层网络应用模型定义的一组协议(IEEE802.1aq),是多生成树协议(MSTP)的进一步延伸,旨在构建大型扁平的无阻塞二层网络。与TRILL一样,也使用IS-IS协议来共享交换机间的多个学习的拓扑,并迅速学习以太网连接中各端点之间的最短路径,避免了使用STP带来的收敛速度慢和部分链路利用效率低下的不足。相对于TRILL,SPB最大的优势在于能够方便地支持VLAN扩展功能。1)SPB协议族的结构SPB协议包括SPBV(VLANQinQ模式,Q指IEEE802.1Q)和SPBM(MacinMac模式),无论是SPBV还是SPBM,在控制平面都是基于L2IS-IS实现拓扑发现、管理。在协议的具体实现思路方面两者是一致的[12]。目前主要应用的模式是SPBM。SPBM基于PBB(ProviderBackboneBridge,运营商骨干网桥)协议。PBB定义了二层网络中的数据转发流程,但是PBB本身没有定义控制流程,其二层网络的拓扑控制、二层环路管理必须依赖于传统的STP等技术。因此,PBB需要定义一套控制流程,使其能够有效地替代STP协议管理大规模二层网络的拓扑和环路,SPBM就成为PBB的控制流程协议。SPBM+PBB构成了完整的二层网络技术,其中SPBM是控制平面协议,而PBB是数据转发层面协议。2)SPBM网络结构模型SPBM网络模型与IEEE802.1ah定义的MAC-in-MAC网络模型基本一致。由SPB核心网络SPBN(ShortestPathBridg-ingNetwork,最短路径桥接网)和用户网络(Cus-tomerNetwork)两部分组成。SPBN由BEB(Back-boneEdgeBridge,骨干网边缘网桥)和BCB(Back-boneCoreBridge,骨干网核心网桥)设备组成,通过IS-IS协议完成最短路径的计算,以保证SPBN无环路。用户网络是通过一台或者多台边缘设备连接到SPBN网络且具有独立业务功能的二层网络,主要由主机和交换设备组成。3)SPBM报文格式SPBM报文分为两种:控制报文和数据报文。控制报文采用802.1Q格式封装,包括Hello、LSPDU(LinkStatePDU,链路状态协议数据单元)、SNP,直接封装在数据链路层的帧结构中。数据报文采用IEEE802.1ah(MAC-in-MAC)定义的封装格式。其格式如图4所示。4)SPBM工作原理SPBM由SPBIS-IS协议和MAC-in-MAC协议共同完成。其中MAC-in-MAC协议为数据协议,负责数据的封装及发送;SPBIS-IS协议为控制协议,负责计算数据的路由转发路径。SPBIS-IS协议在各BEB、BCB设备之间通过周期性通告Hello报文以建立并维持邻居关系,在形成邻居关系的设备之间扩散LSPDU,最终在SPBN中的所有设备上形成相同的LSDB。各SPBM设备在LSDB的基础上使用SPF算法生成从自己到其他设备的最短路径,其基本思路如下:首先计算任意两节点间的最短路径,并判断是否存在等价路径;如存在,则计算各条等价路径的Key值;然后比较所有等价路径的Key值,取最小的Key值对应的路径作为转发路径。Key值计算公式为:Key=min{BridgeIDXORMASK[i-1]}其中BridgeID是交换机ID,由用户直接配置的一个唯一的编号或名字。MASK[i]是一个标准协议中定义的数组,其大小为16。由协议为该数组指定具体数据,对应16个不同的实例。当前协议中定义的数组是。5)SPBM转发机制SPBIS-IS协议仅负责计算SPBN的最短路径,生成对应的转发表项。数据报文在SPBN中转发过程如下:(1)入隧道:BEB设备从用户网络收到数据报文后,学习该报文的源MAC,并为其封装上MAC-in-MAC头后将该报文发送进入SPBN中。(2)隧道中转发:MAC-in-MAC报文在SPBN中传输时,BCB设备根据报文中B-DA,B-VLAN查找转发表,如果无对应的转发表则丢弃该报文;有对应的转发表则按照转发表进行转发。报文在转发过程中,中间设备不会对其源MAC进行学习。(3)出隧道:MAC-in-MAC报文到达隧道终点时,BEB会解封装MAC-in-MAC报文还原成数据报文。BEB学习数据报文中的源MAC后,把数据报文发送到用户网络。为防止产生环路,数据报文在SPBN中禁止广播发送,只支持单播、组播发送。数据报文进入隧道时BEB设备根据报文中的目的MAC来确定后续报文在SPBN中以何各方式进行传输:若目的MAC为广播MAC、未知单播MAC或未知组播MAC,则封装后的报文在SPBN中进行SPBM组播发送;若目的MAC为已知单播MAC,则封装后的报文在SPBN中进行SPBM单播发送。SPBM组播支持两种模式:头端复制和核心复制,用户可根据实际组网选择不同的组播模式。SPBM单播转发过程如图5所示。首先用户数据由用户网络1进入BEB1后,BEB1对报文进行封装,写入B-MAC、B-VLAN、I-SID等信息;然后,按照计算出的转发路径,路径上的交换机按照报文中的B-MAC和B-VLAN等信息进行转发;当报文到达BEB2后,由BEB2进行解封装,去掉报文中的B-MAC、B-VLAN、I-SID等信息,进入用户网络2。SPBM组播转发流程SPBM的组播与传统的三层网络组播管理基本类似,都是基于单播管理。在单播管理形成的转发路径上计算组播路径。SPBM在不同的实例中,定义不同层次的组播树,相互独立;每个实例中,每个节点都有以自己为根的独立组播树。

1.2.3TRILL与SPB技术对比(见表1)SPB是纯软件的解决方案,不需要更新转发芯片去支持,与现有的MSTP兼容,但也造成了目前SPB应用中的最大困扰。由于转发路径靠软件算法保障,在多路径负载分担时,对CPU计算能力的要求也就远远超过TRILL。

1.3存储网络技术-FCoE

在传统的数据中心里,存储网络与数据网络是各自独立的。在大部分数据中心都部署了专门的存储区域网络(FCSAN),这种基于FC协议的SAN虽然在性能、可靠性等方面能够充分满足用户的需求,但作为目前SAN的光纤通道协议FC,它的底层发展受到很大的限制,FCoE(FibreChanneloverEth-ernet,以太网光纤通道)可将光纤通道(FibreChan-nel,FC)信息封装到以太网信息内,光纤通道请求和数据可以通过以太网络传输,是专门为低延迟性、高性能、二层数据中心网络所设计的网络协议,是一种利用以太网实现高效块存储的技术。FCoE技术融合了现有的传统局域网(LocalAreaNetwork,LAN)和存储区域网(StorageAreaNetwork,SAN),扩展了SAN的传输带宽,减少了数据中心的I/O接口,可以在高速以太网链路上同时传输IP和FCoE数据分组。

1.3.1FCoE协议栈FCoE保留了FC协议栈中FC-2以上的协议栈,把FC中的FC-0和FC-1用以太网的链路层取代。FC协议中,FC-0定义承载介质类型,FC-1定义帧编解码方式,这两层是在FCSAN网络传输时需要定义的方式。由于FCoE运行在以太网中,所以不需要这两层处理,而是用以太网的链路层取代这两层处理。

1.3.2FCoE报文封装如图6所示,FCoE报文是在以太帧内增加4字节的802.1Q报头、2字节的以太网类型(FCoE对应0X8906)。在普通以太网络中,帧最大为1518字节,但FC帧最大约大为2112字节,为了保证FCoE端到端传输的流畅性,使用"巨型帧"来进行数据封装,它允许以太网帧在长度上最大可以达到9000字节,最大的巨型帧可以实现在一个以太网帧下封装4个光纤通道帧。但要保证巨型帧在以太网络中能正常传递,网络内所有以太网交换机和终端设备必须支持一个公共的巨型帧格式。随着FCoE技术应用的普及,除接入层交换机、服务器外,汇聚核心层交换机、存储设备也逐渐支持FCoE接口,磁盘阵列可直接连接到数据中心交换机上,从而实现了数据中心内端到端的FCoE网络。

2大二层技术在数据中心的应用

通过对交换机虚拟化(VSS/IRF/CSS/VSU)、TRILL和SPB等大二层网络技术的分析,各种技术都有其优势和适用的范围。一个数据中心的建设也不可能只使用一种技术来实现,通常是两种或多种技术的融合。下面就通过IRF+TRILL技术给出一个具有较为适用的中型数据中心的基本网络架构。如图7所示。核心层:2台核心设备通过两条40G链路连接,运用IRF虚拟化技术对核心设备横向整合,将2台核心物理设备虚拟成1台逻辑设备,整合后的虚拟化设备具备跨设备链路聚合功能,所有链路都参与以太帧转发,这样2台核心既能负载均衡,又能实现“双活”。TRILL网络:又分为TRILL网络核心层和TRILL网络接入层。核心层RB只负责TRILL帧的高速转发,不提供主机接入。每个接入层RB通过2个万兆端口分别接入到2台核心层RB上,此时服务器接入交换机的上联网络带宽就可达20G。存储网络:通过FCoE技术直接将存储设备接入核心网络的2台核心交换机。使用FCoE技术,可以突破传统FC网络的距离限制,将存储网络延展到任何地点,为以后的容灾备份中心的建立打下基础。同时融合后的数据中心只存在一个网络,存储网络和以太网络统一管理、统一维护,大幅减少了管理人员的工作量。通过IRF+TRILL技术以及FCoE技术部署的数据中心,具有以下几方面的优点:1)高可用性:虚拟化技术通过核心交换机N:1的横向整合,既实现了核心设备的负载均衡,又使2台核心保持“双活”,保证了核心网络的高可用性。2)高扩展性:服务器通过该种方式接入TRILL网络可跨越交换机,不存在二层环路,使得网络接入层具有良好的扩展能力。3)高效性:由于TRILL网络中数据报文转发可以实现ECMP和最短路径,因此,采用TRILL技术可以极大提高数据的转发效率,提高数据中心网络吞吐量。4)更高的灵活性和可靠性:统一的架构是实现下一代虚拟化数据中心架构的关键因素,在这种架构中,服务器、存储和其他资源都可以动态分配,以适应变化中的工作负荷和新的应用程序,而且无需进行频繁的物理设备变动。对于数据中心虚拟化和自动化来说,这中架构是非常好的。

3总结

随着数据中心应用及规模的不断扩张,各种数据行为也在不断发生改变,这也要求数据中心的基础架构必须适应其发展,不仅需要高密度、大容量网络设备,还需要合适的技术来支撑。目前,虚拟化、TRILL、SPB、FCoE等技术会将数据中心带向大二层网络架构,数十万台设备都可能会在一个大二层网络中。不管采用哪种新二层技术,未来的数据中心网络结构必然会更为简化、更为高效、更易于管理。

作者:胡法红阚惠强单位:兰州交通大学现代信息技术与教育中心甘肃省高等学校招生办公室信息科