广域网优化

更新时间:2023-09-01 21:17

广域网优化(WAN optimization),通常也被称为广域网加速(WAN acceleration),即通过一些优化技术来提供高性能的远程数据访问,从而提高应用程序在广域网上的性能。

产生背景

传统的局域网(LAN)无法高性能低成本地满足全球化合作需求,因此产生了广域网(WAN)。通过广域网人们可以进行跨越城市、地区、国界的通信,但是广域网自身的固有特性(由媒体协议距离等决定),如高迟延、高丢包率等,使得数据传输相对局域网存在极大障碍,因此通过广域网交互的应用程序不可避免地性能下降。

同时,人们对于服务器、应用的响应速度要求越来越高。从8秒原则(即打开一个Web网页不能超过8s,否则大多用户就会放弃访问),到2006年Akamai的研究表明对于电子商务网站这个时间节点减少到4s,再到2012年SmartBear公司的研究表明,对于Web应用而言,57% 的用户在3s 内还没加载完就会放弃,即这个时间段已经缩短到了3s以内。对于如Amazon这样规模庞大的电商来讲,网络访问时延每增加1s ,1年就会减少16亿美元的销售额。

可见通过广域网优化技术,提高现有网络环境中的应用性能具有极其重要的研究意义与市场价值。

主要目的

支持QoS的需求,满足如VoIP和视频这类服务的实时应用加速需求,以及带宽汇聚。

内容交付障碍

内容交付障碍,即影响数据传输性能的因素。

广域网(WAN)内容交付障碍主要分为四大类:

我们可以通过这四类问题来分别对于广域网进行优化。

网络和传输障碍

主要是关于广域网固有的特性。

1、有限的带宽

a、局域网带宽远大于广域网带宽,导致两者带宽不匹配,木桶效应限制了整体吞吐量。

b、广域网的用户超载与用户聚合更高,而客户端与服务器处于端系统,即使是局域网速度更快,但是由于用户超载以及宽带的影响,客户端与服务器均只能接受发送少量的数据。

c、协议的开销(数据报头,ACK包等),导致带宽更加有限。

2、高迟延率

广域网长传输距离、协议转换、以及广域网常有的拥塞,导致了广域网的高延迟率。

这是应用程序以及服务器高相应时间的主要因素。

3、网络拥塞和高丢包率

导致传输层协议具有不稳定行为。

应用程序和协议障碍

应用程序性能直接由网络协议影响。

一些在局域网上较为适用的协议,因为广域网本身特性的影响反而不太适用。具体有以下几个方面:

1、大多协议不是针对广域网环境(长传输距离、高迟延、阻塞、有限带宽)设计的,因此表现得不好。

2、健壮性较好的协议,由于过多的控制报文,其效率反而较低。

因此这两类协议均不太适合广域网的数据传输。

操作系统障碍

主机操作系统对于应用程序进行支持,文件系统格式以及对于网络的不同连接实现均影响到数据的传输。

硬件障碍

硬件需要对操作系统进行支持,同时CPU、网卡、缓存等硬件设施的性能直接关系到数据传输。

主要技术

目前广域网最常见技术主要有5个,即:

压缩

压缩是从数据流中移除冗余模式的一种优化技术,采用这项技术,将传输更少量的数据包,降低带宽损耗,改善应用性能。

目前广域网压缩技术普遍使用基于数据包的压缩,路由器、VPN 设备等都具备这种功能。压缩端使用缓冲区缓冲发往对端的数据包, 将一个或多个数据包适用压缩算法压缩后经广域网发送至反向进行该流程的解压设备,接收方即可得到发送方发送的完整数据。

数据包压缩技术:

数据包分为包头(header) 和有效载荷(payload),相应地,数据包压缩包括包头压缩(header compression)

和有效载荷压缩(payload compression)。

有效载荷压缩多采用块压缩(bulk compression)技术,将数据包中的所有信息作为一个块并使用特定的压缩算法进行压缩。发送端根据有效载荷中的共同序列建立字典信息,然后将序列匹配到一个更短的特征码。接收端使用相同的字典进行解压缩。有效载荷压缩中使用的具体压缩算法决定了流量消减量,即压缩比和压缩性能。

而对于Web应用普遍使用HTTP压缩。HTTP压缩包括:

静态压缩对预先生成的Web内容进行压缩。

动态压缩则针对动态生成的Web应用,如电子商务或应用程序和数据库驱动的网站。

由于特定客户端至服务器的HTTP交互过程中,HTTP头部信息变化不大。HTTP头部差分压缩通过只传输变化信息减少数据量。

Web应用程序的压缩性能取决于对应的Web内容(如文本、图片、音频、视频等)。Andrew对包括科技公司主页、新闻类网站、门户类网站及体育类网站在内的4种类型20个网站使用浏览器默认压缩算法的压缩效果进行了分析,结果显示数据压缩可以节省75%文本文件的流量消耗,不同种类文件综合来看可以节省37%的流量消耗。如图2所示:

重复数据删除

重复数据删除是从数据压缩中衍生出来的一种技术。

它可以识别文件内部或者不同文件之间所蕴含的重复数据元素,只保留这些数据的一个副本,将其他出现此数据的地方替换为指向该副本的引用或者指针。这样减少了需要传输和存储的数据量,当数据重复较多时可以节省大量的空间。

基于算法粒度,重复数据删除算法(粒度)由大到小可分为3个类别:

与数据压缩相比,该技术消除冗余范围更大,在技术上多使用模糊匹配,更加适合大粒度的数据块。

常见的重复数据删除算法有:基于内容定义的数据分块算法(content-defined chunking, CDC)、基于频率的数据分块算法(frequency based chunking,FBC )、BDU(backup ded up)智能算法等。

重复数据删除技术广泛应用于各种广域网环境中,尤其是对于数据存储和获取较为敏感的网络,比如云存储环境等。

缓存

数据缓存技术是在分析用户数据流统计特征的基础上,利用数据的可复制性和共享性,在互联网关键节点( 包括本地)存储经常访问信息的技术。此技术可以有效减少网络流量和应用程序响应时间。

基于缓存位置分类,可以分为:

基于缓存体系结构分类,可以分为:

基于缓存对象来分类,可以分为:

此处分别对于以上分类及其特点进行介绍。

一、基于缓存位置分类

1、客户端缓存

指Cache(高速缓冲存储器)部署在本地或者离客户端很近的链路结点上。

目前大多数Web浏览器都支持客户端缓存,它们把最近访问的网页数据存放在本地Cache中以便于下次访问相同页面时可以直接获取(前提是该数据未被覆盖或者删除),从而减轻了广域网带宽压力,提高用户的Web访问体验。

为了增强客户端缓存的效果,基于点对点(Peer-to-Peer,P2P)的客户端协作缓存技术被提出,一个代表是Squirrel这个P2P Web Cache系统,该技术主要的想法为:不同客户端的多个cache之间可以分享互相没有的数据,在向服务器发出请求前,先在客户端构成的cache系统中进行检索,如果找到所需数据则可以免去与服务器的交互时间。

由此Squirrel衍生出了其实现算法:如果所请求的数据对象是不可缓存的,数据请求则直接转发到服务器;否则检查本地缓存,如果本地缓存没有请求数据,那么将请求转发到网络其他节点。

但是上述算法存在一些缺点:该算法忽略了不同结点上的机器功能与缓存能力的不同,同时该算法效率可能受到一些传输或者检索低效率的结点的影响。

因此,为了克服Squirrel算法中的缺点,代理服务器以及索引文件(对于所有缓存建立索引文件,通过索引找到请求数据)的概念被引入到该结构中,由此产生了两种结构实现。

其一、索引文件置于代理服务器,所有的客户通过代理服务器来找到索引。(如图4)

其二、将索引文件置于运算能力较为强大的客户端(即超级客户),通过超级客户找到索引,如此超级客户端可以分担代理服务器大部分工作量。(如图5)

2、代理缓存

指Cache(高速缓冲存储器)部署在客户与服务器之间。具体实现类似于客户端。有研究表明,在代理端部署缓存最高能够把用户数据访问迟延降低26%。

3、服务器缓存

指Cache(高速缓冲存储器)部署在在服务器上或者离服务器很近的链路结点上。

由于可以直接读取缓存而无需服务器的处理器过多处理,服务器端cache能够有效减少服务器负载与用户响应时间。

二、基于缓存体系结构

1、层次式缓存:如图6中a

缓存依据网络层次呈现多级配置。

缺点主要表现在每一级cache都会带来额外的延迟;同时,高层cache可能会成为瓶颈并带来较长的排队延迟。

2、分布式缓存:如图6中b

针对层次式缓存的缺点提出了分布式缓存。在这种结构中只有底层cache,cache之间需要一定的策略进行通信处理缓存失效。其具体实现类似于客户端缓存中的Squirrel系统。

然而,大规模分布式缓存系统的配置面临连接次数多、带宽要求高、管理困难等问题。

3、混合式缓存:如图6中c

将分层式与分布式缓存结构结合起来,同级cache采用分布式缓存结构,重复发挥各自长处,同时减少连接时间和传输时间。

三、基于缓存对象

1、字节序列缓存

字节缓存技术把数据包拆分成片段,对碎片分配唯一标识,将标识分别存储在本地设备和目的地接收设备中,当具有相同标识内容再次需要传输时,只传输标识到目的地,接收设备根据标识便在本地的设备中提取出内容。字节缓存技术可支持很多的 TCP应用 , 包括Microsoft Office、CAD、ERP、FTP、HTTP等。

2、文件/对象缓存

对象缓存涉及到主动缓存和被动缓存。

被动缓存指当请求某一个对象时,才将此对象进行缓存或者刷新缓存。

主动缓存是根据一定的算法,主动缓存对象或者刷新已经缓存的对象。

对象缓存通常用于HTTP协议,它分析网页并将网页中的每个URL对应到某一个对象并将对象进行缓存。

预读

预取是一种主动预测的数据优化方式,根据用户访问网页的行为和历史记录等因素来推测用户将来可能访问的数据,提前从服务器上获取相应数据并存放到相应的缓存中,提高访问速度。

实际上,预取即是一种主动缓存技术。由于缓存只能被动根据保存的信息减少数据的传输,当缓存中的数据命中率很低或者信息更新频繁时,数据缓存带来的优化效果非常有限。为了解决该问题,数据预取技术应运而生。

现有的预取算法主要分为2类:基于历史记录的预测算法与基于访问内容的预测算法。

1、基于历史记录的预测算法:

这类算法通过分析客户端向服务器发送的请求序列的历史记录来预测将来可能发送的请求。

传统的基于历史记录的预测算法包括局部匹配预测模型(PPM)、最长重复序列局部匹配预测模型(LRS-PPM)、基于流行度的局部匹配预测模型(PBPPM)等。

2、基于访问内容的预测算法

基于访问内容的预测算法与搜索引擎所使用的算法类似,它根据用户浏览网页时的行为,提取出用

户可能需要访问内容包含的关键字进行相关内容的预测。

协议优化

在广域网传输中,网络协议某些固有的特性可能造成数据传输不能充分利用带宽资源。 例如,广域网中普遍使用的TCP协议和一些常用的交互式应用层协议(如CIFS, MAPI等),其传输性能会随着延时的增加而迅速下降。协议优化技术在对协议深入分析的基础上,对协议的交互流程及控制机制进行优化,从而使得协议能适应拥有丢包和延迟特性的广域网环境。

主要的协议优化有传输协议优化、HTTP协议优化、网间协议优化等。

由于协议优化的重要性重新划分目录进行介绍。

协议优化

传输协议优化

传输协议优化研究的焦点是TCP协议优化。

TCP协议的窗口滑动机制、拥塞控制算法和端到端的交互机制导致其在广域网环境中性能不佳。尤其

是近几年,随着无线网络的普及、移动互联网的广泛使用及数据中心网络的兴起,TCP协议的局限日益显著。

当前TCP优化的常用技术包括TCP慢启动优化、改进TCP拥塞控制算法、TCP接收端优化及使用TCP代理等。

1、TCP慢启动优化

传统TCP主要基于Jacobson提出的 “ 慢启动”算法,通过逐渐增加拥塞窗口大小来探测可用的网络容量,防止连接开始时采用不合适的发送量导致网络拥塞。但在高延迟网络中,“慢启动”会对类似HTTP等多数连接为短连接的应用造成巨大的性能损失。此外,慢启动阶段每个往返时延(round trip time,RTT)时间,拥塞窗口增加一倍,当拥塞窗口增加到一定值时,就可能以高于瓶颈带宽的速率来发送数据,造成网络拥塞。

针对上述问题,对TCP慢启动优化的研究包括智能设置拥塞窗口初始值、修改慢启动阈值及慢启动拥塞窗口调整机制。

2、TCP拥塞控制机制优化

近年来,各国学者针对TCP拥塞控制机制提出了一系列改进算法和协议。这些协议对不同的网络环境特性提出了较为有效的控制方法,改进的焦点主要聚集在如何应对高带宽、大延时带来的影响,如何区分链路丢包和拥塞丢包等。

3、TCP接收端优化

多数TCP优化机制集中在发送端,但近年来随着移动互联网及数据中心网络的发展,出现了在接

收端对TCP性能进行优化的方案。在 3G/4G 移动网络中,每个用户拥有 一个较大的独立缓冲区,导致缓冲区高排队迟延。为解决该问 题,有的文献提出基于测量的RTT信息,通过在客户端控制接收窗口大小,降低排队时延。在数据中心网络中,为了解决TCP Incast问题,微软亚洲研究院提出ICTCP(incast congestion control for TCP),通过接收方获得的流量信息调节通告窗口从而控制发送速率。网络加速厂商华夏创新ZETA-TCP通过监控 学习反向控制对端的传输行为,实现基于客户端的单边下载加速。

4、TCP代理

TCP代理(代理网关)机制将发送端主机和接收端主机之间的TCP连接透明地分割成多段。代理服务器负责中继转发从发送端主机发往接收端主机的数据包,数据包经多段TCP连接最终抵达接收端主机。由于在每段TCP连接上的往返时延和丢包率的降低,所以整体的端到端吞吐率得以提高。

代理网关根据部署方式可分为单代理网关与双代理网关。

单代理网关通过部署单个代理网关优化广域网,其部署拓扑如图7所示。代理网关将客户端从服务器下载的数据包截获,在广域网端运行与标准TCP兼容、同时性能提高的TCP。

在双代理网关的2个透明代理中(如图8),一个作为代理客户端与服务器相连,而另一个作为代理服务器端置于客户端出口处。

双边TCP代理加速原理如图9所示,2个透明代理之间通常将协议转换为UDP协议或其他自定义协议,这些协议本身可以完全按照自己的要求进行控制,达到提高TCP性能的效果;双代理网关还可以引入压缩、缓存等技术进一步提高广域网性能。

5、基于控制模型的TCP优化

基于控制模型的TCP优化将网络拥塞控制看作反馈控制系统,结合主动队列管理机制(active queue management,AQM),从控制理论的角度使用ECN机制优化网络拥塞控制。

主要包括基于经典控制模型的AQM算法和基于现代控制理论的优化算法。

HTTP协议优化

HTTP协议的广泛使用使得HTTP流在广域网流量中占据非常重要的比例。HTTP标准协议有HTTP/1.0和HTTP/1.1。在HTTP/1.0中,客户端每发送一个HTTP请求都需要与服务器建立一次TCP连接。HTTP/1.1对此进行 了改进,将HTTP连接设为长连接,减少了建链和断链的开销;另外增加了流水线(pipelining),可以一次发起多个请求。但流水线被大多数浏览器默认禁用,而且即使支持流水线,却被HTTP限制请求必须以先入先出的方式处理。

为了解决HTTP协议的上述问题,适应目前越来越复杂的页面状况,有效加速网页加载速度,相关研究人员提出了多种HTTP优化方案,包括改进现有HTTP协议及HTTP流化技术等。具有代表性的包括Dual-Transport HTTP(DHTTP)和Google公司提出的SPDY协议。DHTTP协议根据对象大小和网络状况将数据包分别通过TCP和UDP信道进行传输。协议利用了UDP不需要事先建立连接的特点将一 部分对可靠性要求略低的数据包通过UDP方式传输。SPDY 是Google主导开发的一 种HTTP协议,实现了在一个TCP连接中传输多个拥有优先级的并行请求;此外,在SPDY中,服务器分析客户端的请求并对其进行预测,将相应资源主动推送给客户端。SPDY还对HTTP头进行了压缩,避免重复头信息的传输,减少带宽占用。

现在的HTTP页面相比过去而言越来越复杂,内容也越来越丰富,包含文本、图片、视频等不同种类的元素。 其中,视频传输一直是HTTP传输服务中难解决的领域。使用HTTP协议来传输流媒体需要在服务器端将媒体文件按照不同码率分割成小的HTTP数据包切片,而客户端根据网络带宽情况,可以随时切换不同清晰度对应码率的切片,使得画面尽可能清晰且流畅,这种技术称为HTTP流化技术。在HTTP流化技术中,部分研究集中在流化的自适应,即根据网络带宽情况来切换最佳清晰度的切片。HTTP流化技术中另一个被重点关注的课题是服务器的架构优化问题。

网间协议优化

网间协议优化主要解决应用层协议的交互问题。部分协议比如微软的CIFS和 Exchange/Outlook(MAPI)等,大量使用小包且存在过多“停等式”的Request/Response交互,这种设计在广域网中造成带宽使用率严重低下。对该类协议进行优化多采用双代理网关部署模式,将原本需要通过广域网传输的应答消息改成局域网内传输, 从而大大减少应用层交互延迟。

网间加速主要技术手段包括协议预取和代理回复。

网间加速的协议预取技术在用户发出实际请求命令之前,提前请求相关数据,并缓存在本地,使得网络数据以局域网速度发送给用户。

一些国内常用的企业资源规划(enterprise resource planning,ERP)系统通常基于RPC协议进行数据访问,使用交互式方式进行数据传输。当这些协议部署在广域网上会将网络延时的影响放大,甚至可能导致系统根本无法部署。网间加速代理回复技术通过代替真正的服务器对客户端进行提前回复,减少广域网交互次数来解决这个问题,即代理服务器通过目的地址转换(destination network address translation,DNAT)在特定端口侦听以获取客户端的数据,并代替真正的服务器与客户端进行应用层交互。同时,将请求的数据交给代理客户端,代理客户端通过源地址转换 (source network address translation,SNAT)将数据交付给服务器,这样所有的应答消息都是在本地网络进行传输。

其他技术

内容分发网络

CDN(Content Delivery Network)是一个经策略性部署的整体系统,能够帮助用户解决分布式存储、负载均衡、网络请求的重定向和内容管理等问题,从而一定程度解决跨越广域网访问互联网服务器的带宽瓶颈、数据丢包、TCP延迟问题。CDN的目的是通过在现有的Internet中增加一层新的网络架构,将网站的内容发布到最接近用户的网络“边缘”,使用户可以就近取得所需的内容,解决 Internet网络拥塞状况,提高用户访问网站的响应速度。此方案对大型网站较为有效。

TCP优化及应用优化

专用的TCP加速或应用加速设备可以帮助改善网络环境中的应用性能,如大带宽链路、大文件传输、高时延、相当大的网络交易等。TCP优化主要解决数据丢包、TCP延迟问题;应用优化主要解决应用延迟问题(如果一个应用在应用层就受到应用消息大小和数据回应及确认需要的限制时,不管带宽有多充裕,也不管是否已经避免了由TCP协议的端到端应答机制造成延迟瓶颈或是TCP的慢启动和拥塞控制行为引起延迟瓶颈,应用延迟不可避免。)。目前市场上的专业TCP加速设备及应用加速设备都需要在企业链路的两端部署,代价非常高。这些专用的加速器都需要自己的专门协议才可以达到加速效果,也就是说基于网络是不透明的。后果就是,网管人员或系统无法看到正在广域网上运行着的应用,还有必要为这些设备所用的专用传输协议在安全设备上特别打开通道,带来安全隐患。

服务质量控制QoS

服务质量控制或带宽管理QoS有助于减轻带宽的竞争。对于宝贵的WAN带宽,应用之间会有竞争,控制竞争的一个有效方法是利用带宽分配和服务质量(QoS)工具。IT人员能够根据应用业务规则分配WAN上应用的优先级,确保该应用能够获得足够的带宽,从而提高与业务紧密相关的生产率。

除了主要的五项技术及以上技术,WAN优化技术还有负载均衡(load balancing)、路由优化(routing optimization)、应用程序代理(application proxies)等。

优化产品

根据IDC的调查,广域网优化市场在2012年底达到13亿美元,市场上已经有多家主流服务商。其中,Riverbed公司占据了大约50%的市场份额,Cisco、F5、Blue Coat和Silver Peak等也都是非常强大的竞争对手。各大优化厂商的相关产品及核心技术如图10所示:

以下简要介绍十大优化厂商优化技术。十大优化厂商分别是:F5、Juniper Networks、Aryaka Networks、Riverbed、Cisco、Blue Coat、Citrix、Sliver Peak、SANGFOR、AppEx Networks。

F5的广域网优化包括TCP自适应优化,Cache技术(文件缓存和字典技术)及TDR压缩技术等。此外,支持包括文件传输、数据库(SQL)、网络存储(iSCSD)、备份(Veritas)及远程接入(Microsoft)等在内的多种应用层协议的加速。与此同时,F5通过One Connect和TCP Express等连接优化释放服务器压力,提升加速效果。

Juniper Networks WXCTM应用加速平台通过数据压缩、TCP和特定应用协议的加速、带宽控制管理技术以及多广域网链路策略选择技术,提高广域网的应用传输性能同时保障链路的可用性。

Aryaka是基于云的广域网优化公司,通过建立网络连接点(POP)组成推送网络进行云加速。此外,采用了TCP优化技术,带宽扩展等技术进行广域网优化。

Riverbed数据优化对传输中的TCP流和数据进行分段并为其建立索引。以前发送过的数据段不会通过广域网再次发送,而只发送与其对应的引用代替它。传输优化通过动态适应网络状况,组合窗口扩展、连接管理和其他技术手段实现TCP优化。对于应用层优化,Riverbed提供第7层应用程序协议优化,支持企业常用的应用程序,如Microsoft Windows文件系统(CIFS协议)、Microsoft Exchange邮件(MAPI协议)、Microsoft SQL Server数据库(TDS协议)、HTTP和HTTPS、NFS或Oracle lli等。

CISCO WAAS(wide area application services)产品应用于广域网链路加速方面,主要针对带宽小和延时大的链路环境。通过对数据报文压缩、重复数据消减、TCP优化以及协议优化(HTTP,SIP,NFSv3以及email等)等,消减广域网链路带宽占用率。

Blue Coat MACH5加速技术包括带宽管理、协议优化、字节缓存、对象缓存及数据压缩技术。MACH5可改善的协议包括TCP,CIFS,HTTP,HTTPS,MAPI,以及大多数视频流和IM协议。字节缓存对数据传输过程中重复的字节流进行缓存,减少需要传输的数据。对象缓存在本地进行文件、视频和Web 页面内容的保存。

Citrix NetScaler使用包括TCP连接复用在内的多种TCP优化技术,实现应用部署基础结构的优化。此外,对HTTP和基于TCP的流量进行压缩,加速Web和客户端/服务器应用数据的部署。同时,联合使用静态和动态缓存改善应用性能。

Sliver Peak主要从网络加速、网络整合和网络存储器3个方面来实现广域网优化。网络加速着重TCP加速和CIFS加速。Sliver Peak的高速TCP修改TCP拥塞控制机制,加大TCP连接窗口,以绝对窗口大小的函数来配置窗口关闭时间,使得TCP在高带宽、 高延时的环境下性能更优。CIFS加速使用预取、写后操作、元数据优化技术提高性能。网络整合使用自适应前向纠错(forward error correction,FEC)技术重传广域网链路远端丢失的数据包,使用实时数据包阶校正验证(proof of concept,POC)应用技术对数据包进行重新排序, 避免数据包无序传输时可能发生的数据包重传现象。Sliver peak网络存储器使用实时的字节级重复数据删除技术来避免在广域网上传输重复的数据。

深信服电子科技有限公司(SANGFOR)的WOC系列广域网加速产品使用 “基于数据特征码流缓存技术”减少传输过程中的冗余流量,通过LZO(lempel-ziv-oberhumer)和GZIP流压缩技术对非冗余数据进行压缩。对于广泛使用的应用程序,如ERP(SAP,Oracle EBS,用友NC,金 蝶EAS等)、电子邮件(exchange,lotus,notes,coremail等)、OA、CRM、数据库、文件共享、桌面虚拟化应用以及各类行业性软件等,提供了相应的应用协议优化技术。

北京华夏创新科技有限公司(AppEx Networks Corporation, 简称“华夏创新”)的应用交付技术及产品功能包括TCP加速、数据压缩、字节缓存、HTTP应用加速、流量分类、精确流量控制、优先级控制、带宽均分、多链路/路由优化及负载均衡。

发展前景

业内人士预测,得益于市场发展,广域网优化即服务选项的需求,以及IP协议和以太网服务的持续增长,广域网优化全球市场收入在2019年将达到121亿美元。2015年全球网络采购意向调查也显示,广域网优化产品位于企业IT投资计划的前五位中。

随着网络流量以指数级速度增长,IT部门需要确保用户能够获取他们所需性能,因此广域网优化在网络技术上的地位也将越来越重要。

解决分析

1、迟延和丢包

广域网链路存在延迟和丢包,导致网络连接缓慢,严重时甚至无法连接,升级带宽仍然解决不了延迟和丢包带来的困扰。该困扰多见于跨运营商、跨区域互联的场景。

网络迟延与最大传输速率关系如下:

直接影响:延迟造成的最直观的感受就是应用系统缓慢,难以忍受。

常见应用系统在网络延迟和丢包影响下的表现如下:

解决思路:提高链路的效率,如协议优化。

2、带宽压力

大文件传输、群组邮件等场景导致数据量激增,线路拥塞,数据传输缓慢,面临带宽升级的压力。而升级带宽后,发现带宽再次被占满,形成恶性循环。因此需要改善带宽来增大服务器的并发访问量。

解决思路:对于数据进行处理,如压缩技术、重复数据删除技术等。

3、办公应用慢

每到月底,财务系统访问速度低下,上传一个表单需要10分钟之久,分支机构员工工作效率下降,且会埋怨总部的IT管理人员。

解决思路:应用层协议与软件配合不好,使用应用层协议优化, 如Microsoft Exchange、SAP Netweaver等。

4、视频会议等保证一定带宽

重金上线的视频会议系统难以就绪,受限于带宽不足或带宽被其他应用占用,使用时出现语音不同步、马赛克等现象,甚至在重要会议时掉线,带来的影响无法预估。

解决思路:需要对于各类型流量进行管控,动态流量检测与管控。

5、移动接入

领导出差,通过酒店或3G无线网络接入总部的网络进行业务流程审批,但往往接入速度非常慢,甚至经常掉线。

解决思路:整体的问题,需要对于各个关键环节使用相应的优化技术。

免责声明
隐私政策
用户协议
目录 22
0{{catalogNumber[index]}}. {{item.title}}
{{item.title}}