Linux 包含复杂的带宽管理系统 TC (流量控制,Traffic Control)。该系统支持分
类、优先、共享和输入、输出流量限制等。这套系统可以与专用的带宽管理系统相媲美。
1. 基本的构成块
tc 包括三个基本的构成块:
队列规定(queueing discipline )、类(class)和分类器(Classifiers)
队列规定可以看作设备的流量/数据包管理器。
队列规定内封装了其他两个主要TC组件(类和分类器),控制数据的流动。
目前,有一些设备队列规定可以用来管理设备,包括类基队列(CBQ),优先级和CSZ
(Clark-Shenker-Zhang)等。CBQ 是一种超级队列,即它能够包含其它队列(甚至其它CBQ)。
类由设备队列规定来管理。类由若干规则(rule)构成,这些规则用以管理那个类所拥有
的数据。例如,某类里的全部数据包都受到 1 Mbps的速率限度,而在午夜和早上6点的一
段时间段内允许最高达 3 Mbps。
一些队列规定可以绑定到类上,包括FIFO(先进先出),RED(随机早期探测),SFQ(随
机公平队列)和令牌桶(Token Bucket)。
如果设备上未绑定队列规定,则使用基本的FIFO。
另外, CBQ,CSZ和优先级也能用于类,以及类的子类。这表明使用TC,可以轻松地建造
非常复杂的流量控制。管理类的队列规定可以称为类队列规定(class queueing disciplines)。
一般地,类队列规定管理该类的数据和队列,能决定延迟、丢掉或者重新分类它管理的包。
分类器或过滤器描述包,并且把他们映射到队列规定所管理的类。
这些过滤器通常都提供简单的描述语言,指定选择包、把包映射到类的方法。
目前,TC可以使用的过滤器有:fwmark分类器,u32分类器,基于路由的分类器和RSVP分
类器(分别用于IPV6、IPV4)等;其中,fwmark分类器允许我们使用 Linux netfilter
代码选择流量,而u32分类器允许我们选择基于 ANY 头的流量 。所有的防火墙过滤器,
例如,ipchains,都能用来分类包。
TC代码位于内核,不同的功能块既能编译为模块,也能直接编进内核。
与内核代码或模块的通信和配置由用户级程序tc完成。
2. 示例
2.1 编译内核
首先要确保选中 Kernel/User netlink socket,因为只有这样 tc 才能通过 netlink
与内核通讯。
然后,把队列规定和分类器都编进内核。这其中包括:
QoS or fair queueing, CBQ packet scheduler, CSZ packet scheduler, the
simplest PRIO pseudoscheduler, RED queue, SFQ queue, TBF queue, QoS
support, rate estimator, packet classifier API, routing-tables-based
classifier, U32 classifier, special RSVP classifier 和 special RSVP
classifier for IPv6。
然后就是大家熟知的编译和安装过程了。
2.2 建立
[因特网] ---〈E3、T3 等〉--- [Linux 路由器] --- [Office+ISP]
eth1 eth0
上图中的 Linux 路由器有两个接口,不妨称之为 eth0 和 eth1。eth1 连接到路由器,
eth0 连接到包括公司防火墙在内的子网上。
由于我们只能限制发送的内容,所以我们需要两套独立的、但可能非常相似的规则集。我
们可以通过改变发送次序来控制传输速率。通过修改 eth0 上的队列,我们可以确定客户
的下载(download)速率;通过修改 eth1 上的队列,我们可以确定我们公司自己的用
户的上载(upload)速率。
比如说,公司连接到因特网的线路带宽为 10 兆,同时满足外部客户和公司自己用户的需
要;此时,我们就需要一种策略,来进行管理和协调。CBQ 就可以满足我们的要求。
我们有两个主类:'ISP' 和 'Office'。我们可以决定,客户有 8 兆的带宽,Office
用户有 2 兆的带宽。
我们首先发布如下的命令:
# tc qdisc add dev eth0 root handle 10: cbq bandwidth 10Mbit avpkt 1000
其含义是:我们配置了 eth0 的队列规定,root 表示这是根(root)规定,其句柄
(handle)设定为 10:’。
其类型为 CBQ。带宽为 10 M,平均包大小为 1000 字节。
下面生成根类(root class):
# tc class add dev eth0 parent 10:0 classid 10:1 cbq bandwidth 10Mbit rate \
10Mbit allot 1514 weight 1Mbit prio 8 maxburst 20 avpkt 1000
这条命令其实不比前一条命令有更多的含义。其中,1514 是 MTU 的值。
下面生成 ISP 类:
# tc class add dev eth0 parent 10:1 classid 10:100 cbq bandwidth 10Mbit rate \
8Mbit allot 1514 weight 800Kbit prio 5 maxburst 20 avpkt 1000 \
bounded
我们分配了 8 兆的带宽给它,其中 bounded 表示该类不能超过该阀值。
下面生成 Office 类:
# tc class add dev eth0 parent 10:1 classid 10:200 cbq bandwidth 10Mbit
rate \
2Mbit allot 1514 weight 200Kbit prio 5 maxburst 20 avpkt 1000 \
bounded
为了更清晰起见,我们的类可以用下图表示:
+-------------[10: 10Mbit]-------------------------+
|+-------------[10:1 root 10Mbit]-----------------+|
|| ||
|| +-----[10:100 8Mbit]---------+ [10:200 2Mbit] ||
|| | | | | ||
|| | ISP | | Office | ||
|| | | | | ||
|| +----------------------------+ +------------+ ||
|| ||
|+------------------------------------------------+|
+--------------------------------------------------+
我们已经向内核通知了我们的类,我们还需要告诉内核如何管理队列,如下所示:
# tc qdisc add dev eth0 parent 10:100 sfq quantum 1514b perturb 15
# tc qdisc add dev eth0 parent 10:200 sfq quantum 1514b perturb 15
这里,我们使用了随机公平队列(sfq),在消耗 CPU 周期较少的情况下,其性能还是可
以接受的。其它一些队列规定可能更好,但要占用较多的 CPU 资源。令牌桶过滤器也经
常使用。
下面还有一件事要作:告诉内核网络包和类的映射关系。
# tc filter add dev eth0 parent 10:0 protocol ip prio 100 u32 match ip dst \
150.151.23.24 flowid 10:200
# tc filter add dev eth0 parent 10:0 protocol ip prio 25 u32 match ip dst \
150.151.0.0/16 flowid 10:100
这里,我们假定 Office 位于防火墙 150.151.23.24 的后面,其它 IP 地址都属于
ISP。
u32 匹配是一种比较简单的匹配,我们可以使用 netfilter 生成更加复杂的匹配规则。
我们已经分配了下载带宽,下面是上载带宽的分配:
# tc qdisc add dev eth1 root handle 20: cbq bandwidth 10Mbit avpkt 1000
# tc class add dev eth1 parent 20:0 classid 20:1 cbq bandwidth 10Mbit rate \
10Mbit allot 1514 weight 1Mbit prio 8 maxburst 20 avpkt 1000
# tc class add dev eth1 parent 20:1 classid 20:100 cbq bandwidth 10Mbit rate \
8Mbit allot 1514 weight 800Kbit prio 5 maxburst 20 avpkt 1000 \
bounded
# tc class add dev eth1 parent 20:1 classid 20:200 cbq bandwidth 10Mbit rate \
2Mbit allot 1514 weight 200Kbit prio 5 maxburst 20 avpkt 1000 \
bounded
# tc qdisc add dev eth1 parent 20:100 sfq quantum 1514b perturb 15
# tc qdisc add dev eth1 parent 20:200 sfq quantum 1514b perturb 15
# tc filter add dev eth1 parent 20:0 protocol ip prio 100 u32 match ip src \
150.151.23.24 flowid 20:200
# tc filter add dev eth1 parent 20:0 protocol ip prio 25 u32 match ip src \
150.151.0.0/16 flowid 20:100
这与前面的描述基本一致,所以就不做更多的解释了。
注:
在前面的例子中,我们注意到:即使 ISP 客户多数离线,我们的 Office 用户也仍然只
有 2 M 的带宽,这是相当浪费的。我们可以删掉 'bounded' 参数,这样,各类之间就
可以相互借用带宽了。
但是,某些类也许不希望向其它类借用带宽;比如,一条线路上的两个互为竞争对手的
ISP 的情况。在这种情况下,我们可以加上关键字 'isolated'。
3. 结束语
目前,Linux 所提供的 QoS(服务质量)是所有操作系统中最复杂、最完善的。另外,
BSD 的 ALTQ 应该说也相当不错;但是,在复杂性、灵活性和可扩展性等方面要落后
Linux 一大截。我不太清楚微软的产品是否提供了这方面的功能。Sun 的 Solaris 提供
了 CBQ 和 RSVP 的功能。
Linux 也支持 IETF diffserv 特征。
Linux 在 QoS 方面众多的特征,将极大提升 Linux 的市场占有率。
时间:2001-10-19 00:48
来源:
作者:otto
原文链接