开篇:润墨网以专业的文秘视角,为您筛选了一篇浅谈数字音视频传输网络――AVB(上)范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!
在传统的音响系统里,声音信号是模拟信号,它的振幅具有随时间连续变化的特性。对模拟音频信号进行处理、存储和传送都会引入噪声和信号失真,并且随着复制次数的增加,每次都会加入新的噪声和失真,信号质量会越来越差。而数字音频技术的出现,解决了上述模拟信号中的诸多问题。
数字音频技术是把模拟音频信号变换为振幅不变的脉冲信号,音频信号的信息量全部包含在脉冲编码调制(Pulse Code Modulation,PCM)中。各种处理设备引入的噪声和产生的失真与数字信息完全分离。因此,数字音频信号具有:复制不走样、抗干扰能力强、动态范围大、可远距离传输、可以远程监控等优点。
现如今,数字音频信号还可以融入到网络传输系统中,在一条传输线路上同时实行多路音频信号的传输,大大节省了传输运行成本,简化了传输线路。
音频信号的数字化
将模拟信号转换成数字信号,需要对模拟信号进行一系列的处理,如图1所示,先对模拟信号进行采样,再经过低通滤波器去除掉采样中产生的高频失真,通过量化将采样后的数值调整为整数,再经过二进制编码后生成数字信号。
采样,是每隔一定的时间间隔,抽取信号的瞬时幅度值。每一秒钟所采样的次数叫做采样频率。以CD为例,采样频率为44.1kHz,即1秒钟对模拟信号进行了44100次取值,如图2b所示,采样后的信号变成了多个密布的点。采样频率越高,抽取的点密度越高,信号也就越精准。
在图2b中采样过后的信号除了原始频谱之外,还会额外产生一些高频的失真,形成新的频谱。这些失真的频谱以nfu(n为正整数)为中心、左右对称,它的频谱分布与原信号的频谱形状相同。采用低通滤波器(LPF)把新增加的多余的频谱滤掉就可以恢复原信号的频谱。
根据奈奎斯特(Nyquist)采样定理:采样频率fs大于或等于采样信号最高频率fu的2倍,就可以通过低通滤波器恢复无失真的原始信号。如果fs
因此采样频率fs必须大于原信号中最高频率的2倍以上,新增加的频谱与原信号的频谱才不会相互叠加。例如,人耳的听音频率上限是20kHz,采样频率最低应为40kHz。但低通滤波器有一定的截止边沿宽度,是按一定规律逐步对信号衰减滤除的,为了较好的防止产生高频失真,通常fs=(2.1~2.5) fu。CD的采样频率是44.1kHz,它等于20kHz的2.205倍。
采样后的振幅值并不是整数,且是随机变化的。还需要将这些随机变化的振幅值通过四舍五入的方法将其变换为能用二进制数列来表达的数值,这个过程就是量化,单位是bit(比特),如图4中采样和量化所示。采样值是6.4的幅值量化后取整数6,采样值是3.6的幅值量化后取整数4。
将量化后的二进制数组按照时间顺序排列成可以顺序传送的脉冲序列,这个过程就是编码。由于数字电路以开关的通和断(1和0)两种状态为基础,可以大大简化数字电路的运算,因此二进制编码在数字技术中获得了广泛的应用。
量化级数越多,量化误差就越小,声音质量就越好,如图5所示,3bit是23个二进制数,6bit是26个二进制数。对于音频信号,由于动态范围较大,而且要求的信噪比又高,所以量化的取值大一些,通常为16bit,甚至20-24bit。
以太网的传输方式
以太网创建于1980年,它是一种可以在互连设备之间相互传送数据的技术。发展至今日,因它具有成本低、速率快、可靠性高等特点被广泛的应用。我们可以通过以太网传送Email、图片、声音、视频等等。以太网络使用CSMA/CD(载波监听多路访问及冲突检测)技术,是一种争用型的介质访问控制协议。
它的工作原理是: 发送数据前先侦听信道是否空闲 ,若空闲,则立即发送数据。若信道忙碌,则等待一段时间至信道中的信息传输结束后再发送数据;若在上一段信息发送结束后,同时有两个或两个以上的节点都提出发送请求,则判定为冲突。
若侦听到冲突,则立即停止发送数据,等待一段随机时间,再重新尝试。我们称这种传输机制为“Best Effort”(尽力而为),也就是说当数据抵达端口后,本着FlFO(先入先出)的原则转发。不对数据进行分类,当数据进入端口的速度大于端口能发送的速度时,FIFO按数据到达端口的先后顺序让数据进入队列,同时,在出口让数据按进队的顺序出队,先进的数据将先出队,后进的数据将后出队。采用CSMA/ CD控制方式的特点是:原理比较简单,技术上容易实现,网络中各工作站处于平等地位 ,不需集中控制,不提供优先级控制。
在以太网中,我们经常会遇到“带宽”一词,它是指在单位时间(一般指的是1秒钟)内能传输的数据量。也就是在规定时间内从一端流到另一端的信息量,即数据传输率。数字信息流的基本单位是bit(比特),时间的基本单位是s(秒),因此bit/s(比特/秒,也用bps表示)是描述带宽的单位,1bit/s是带宽的基本单位。不难想象,以1bit/s的速率进行通信是非常缓慢的。幸好我们可以使用通信速率很快的设备,比如56k的调制解调器利用电话线拨号上网,其带宽是56000bit/s(1k=1000bit/s), 电信ADSL宽带上网在512kbit/s至100Mbit/s之间,而现如今的以太网则可以轻松达到100Mbit/s以上(1Mbit/s=1000*1000bit/ s=1,000,000bit/s)。
以千兆网(1Gbit/s)为例:假如说交换机的端口带宽是1Gbit/s,也就是1000,000,000bit/s,则说明每秒可传输1000,000,000个二进制的“位”,那么1bit所占用的时间是1÷1000,000,000=1ns。也就是每个二进制位(1bit)之间的时间间隔大于1ns时,就不会发成冲突,如图6所示。
但在以太网传输中,并不是以二进制位(bit)来传输的,而是以“帧”为单位的。如图7所示,在一帧中至少包含了46 Byte(字节)的数据,那么一个最小的以太网帧是72 Byte;如果一帧中包含的最大数据是1500 Byte,那么一最大的以太网帧是1526 Byte。
网络设备和组件在接收一个帧之后,需要一段短暂的时间来恢复并为接收下一帧做准备,也就是相邻两帧之间是有一个间隙的,IFG(Inter frame Gap)帧间距。IFG的最小值是12Byte,如图8所示。
我们假设这两帧数据在千兆网(1Gbit/s)内传输,那么两帧之间的时间间隔大于96ns就不会发生冲突。
随着网络带宽的提升,千兆网在传统以太网的基础上对帧的数据量做出了一定的修改。采用了载波延伸(Gamier Extension)的方法,将最小字节扩展到512Byte,即凡是发送帧长不足512 Byte时,就填充特殊字符(0F)补足。当许多短帧需要发送时,如果每一帧都扩展为512 Byte,会造成资源的巨大浪费。因此又设定了帧突发(Frame Bursting)的方法,可以解决此问题,第一个短帧使用载波延伸,一旦发送成功,则随后的短帧连续发送直到1500 Byte为止。此期间由于线路始终处于“忙”的状态,不会有其它站点抢占信道。
传统以太网如何传输实时数据流(音、视频流)?
以太网通过RTP(Real-time Transport Protocol)实时传输协议为数据提供了具有实时特征的端对端传送服务。RTP本身并不能保证传送,也不能保证防止无序传送。因此,想要对所有的数据流进行排序,就离不开对数据的缓冲(Buffer)。但是,一旦采用缓冲的机制就又会带来新的问题――延时。所以我们在网络上听歌、看电影的时候,都会缓冲后才开始播放。但这个缓冲时间,在专业音、视频传输领域里是不能被接受的。
数字音频信号对以太网的要求
我们以C D为例,它的采样频率是44.1kHz,量化位数是16bit。每次采样的时间是1÷44.1×1000≈22.7μs。我们对声音的要求是连续不间断的,也就是要求每个采样下的数据传输间隔不能大于22.7μs。而在千兆网(1Gbit/s)里,两帧之间的最小时间间隔只有96ns,远小于我们所要求的22.7μs,那么在这个带宽下,我们是完全可以传输连续不间断的音频信号的。
如果我们在1Mbit/s的带宽下传输数据,那么1bit所占用的时间是1÷1,000,000=1μs,两帧之间的间隔是96μs,这时候如果传输CD数字音频信号就会存在断断续续的问题了。
从上面两个例子不难看出,只要网速足够快,也就是网络有足够的带宽,我们就可以很顺利的在网络上传输数字音频信号。但大多数情况下,由于带宽通常是由多个设备共享的,我们不单单只用它去传输一路数字音频信号,我们会同时传送多路数字音频信号,还会传输邮件、网页、图片等等其它的数据。而所有的发送端没有基于时间的流量控制,那么这些发送端永远是尽最大可能发送数据。这样来自不同设备的数据流就会在时间上产生重叠,即我们前文所说的冲突。这一定会影响数字音频信号的传输,为了改善这种传输机制,提高部分数据传输效率,以太网通过QoS优先机制进行转发,可以保证一部分数据的传输。(未完待续)