tc的学习原来是想着直接从用户态学习的,但是万万没想到哇,qdisc class两个概念直接把我给搞晕了,直接看代码吧

调用:tc qdisc add dev tap0 root handle 1: htb default 2

%stc 0xffffffff81744fe0 : qdisc_create+0x0/0x410 [kernel]
0xffffffff81745597 : tc_modify_qdisc+0x1a7/0x5b0 [kernel]
0xffffffff8172b336 : rtnetlink_rcv_msg+0xe6/0x230 [kernel]
0xffffffff8174ee24 : netlink_rcv_skb+0xa4/0xc0 [kernel]
0xffffffff8172b248 : rtnetlink_rcv+0x28/0x30 [kernel]
0xffffffff8174e5da : netlink_unicast+0x12a/0x1b0 [kernel]
0xffffffff8174eb01 : netlink_sendmsg+0x4a1/0x5f0 [kernel]
0xffffffff816fe098 : sock_sendmsg+0x38/0x50 [kernel]
0xffffffff816feb41 : ___sys_sendmsg+0x281/0x290 [kernel]
0xffffffff816ff491 : __sys_sendmsg+0x51/0x90 [kernel]
0xffffffff816ff4e2 : sys_sendmsg+0x12/0x20 [kernel]
0xffffffff818244f2 : entry_SYSCALL_64_fastpath+0x16/0x71 [kernel]

在增加tc class的时候的调用栈是:

tc
0xffffffff81741950 : qdisc_create_dflt+0x0/0x80 [kernel]
0xffffffffc0a87abf [sch_htb]
0xffffffff81744d85 : tc_ctl_tclass+0x3b5/0x400 [kernel] (inexact)
0xffffffff8172b336 : rtnetlink_rcv_msg+0xe6/0x230 [kernel] (inexact)
0xffffffff81706bd7 : __alloc_skb+0x87/0x1f0 [kernel] (inexact)
0xffffffff8172b250 : rtnetlink_rcv_msg+0x0/0x230 [kernel] (inexact)
0xffffffff8174ee24 : netlink_rcv_skb+0xa4/0xc0 [kernel] (inexact)
0xffffffff8172b248 : rtnetlink_rcv+0x28/0x30 [kernel] (inexact)
0xffffffff8174e5da : netlink_unicast+0x12a/0x1b0 [kernel] (inexact)
0xffffffff8174eb01 : netlink_sendmsg+0x4a1/0x5f0 [kernel] (inexact)
0xffffffff813912f1 : aa_sock_msg_perm+0x61/0x150 [kernel] (inexact)
0xffffffff816fe098 : sock_sendmsg+0x38/0x50 [kernel] (inexact)
0xffffffff816feb41 : ___sys_sendmsg+0x281/0x290 [kernel] (inexact)
0xffffffff8120018b : mem_cgroup_try_charge+0x6b/0x1b0 [kernel] (inexact)
0xffffffff8119dfd7 : lru_cache_add_active_or_unevictable+0x27/0xa0 [kernel] (inexact)
0xffffffff811bf87a : handle_mm_fault+0xcaa/0x1820 [kernel] (inexact)
0xffffffff816ff491 : __sys_sendmsg+0x51/0x90 [kernel] (inexact)
0xffffffff816ff4e2 : sys_sendmsg+0x12/0x20 [kernel] (inexact)
0xffffffff818244f2 : entry_SYSCALL_64_fastpath+0x16/0x71 [kernel] (inexact)

在qdisc中打点,发现每创建一个分类都会导致创建一个新的qdisc,然后这个qdisc会放到哪里?

rt_netlink

4068 static int __net_init rtnetlink_net_init(struct net *net)
4069 {
4070 struct sock *sk;
4071 struct netlink_kernel_cfg cfg = {
4072 .groups = RTNLGRP_MAX,
4073 .input = rtnetlink_rcv,
4074 .cb_mutex = &rtnl_mutex,
4075 .flags = NL_CFG_F_NONROOT_RECV,
4076 };
4077
4078 sk = netlink_kernel_create(net, NETLINK_ROUTE, &cfg);
4079 if (!sk)
4080 return -ENOMEM;
4081 net->rtnl = sk;
4082 return 0;
4083 }

注册了这样的一种网络的协议,然后这种协议专门处理网络收发包的策略

htb_qdisc_ops函数的原型如下:

1582 static const struct Qdisc_class_ops htb_class_ops = {
1583     .graft      =   htb_graft,
1584     .leaf       =   htb_leaf,
1585     .qlen_notify    =   htb_qlen_notify,
1586     .get        =   htb_get,
1587     .put        =   htb_put,
1588     .change     =   htb_change_class,
1589     .delete     =   htb_delete,
1590     .walk       =   htb_walk,
1591     .tcf_chain  =   htb_find_tcf,
1592     .bind_tcf   =   htb_bind_filter,
1593     .unbind_tcf =   htb_unbind_filter,
1594     .dump       =   htb_dump_class,
1595     .dump_stats =   htb_dump_class_stats,
1596 };
1597
1598 static struct Qdisc_ops htb_qdisc_ops __read_mostly = {
1599     .cl_ops     =   &htb_class_ops,
1600     .id     =   "htb",
1601     .priv_size  =   sizeof(struct htb_sched),
1602     .enqueue    =   htb_enqueue,
1603     .dequeue    =   htb_dequeue,
1604     .peek       =   qdisc_peek_dequeued,
1605     .init       =   htb_init,
1606     .reset      =   htb_reset,
1607     .destroy    =   htb_destroy,
1608     .dump       =   htb_dump,
1609     .owner      =   THIS_MODULE,
1610 };

tc_ctl_tclass就是对class的处理!!!!!

子队列是怎么关联到父队列中去的?对于htb算法来说,到底是怎么管理的这棵树的?

207 static struct htb_class *htb_classify(struct sk_buff *skb, struct Qdisc *sch,
如何htb_classify,把数据包放到对应的队列中去。

所以我们再整理一下看一下htb里面是怎么把数据包放到,首先会根据数据包skb->priority字段去找到这个数据包属于的class编号,确定了class之后,【这里有个疑问】为什么不是先做filter呢?

先找到这个priority对应的class,class上依附着这个class所有的filter,路由!

所以现在基本明白了qdisc/class/filter之间的关系,一个qdisc下有一个class,然后这个class中依附着一个路由表,这个表中指向的是多个新的qdisc。下面这些叶子qdisc中又有自己的class了,这个class了,这个class规定了自己的一些特性呢!所以一个qdisc一定关联着一个class,这个class定义着这个qdisc的发送的速率等参数。

所以clas这个结构体是一定要存在的!看下,像htb这样的tc算法,如果filter直接放在qdisc上面的话,那么子class流量共享与不共享就只能选择其中一个了,但是如果此时创建了一个class

那么其实还有个问题,在skb中标志了这个major:minor号码,那么为什么不直接找到这个号码呢?看下tc filter是怎么操作的!是怎么把这个priory放到了skb->priority域中的?!tc filter add dev

__ip_make_skb<--ip_make_skb

https://blog.csdn.net/eydwyz/article/details/53320910

所以在htb_enqueue时设置了优先级的概念priority:

skb->priority:

19 #define TC_PRIO_BESTEFFORT      0
 20 #define TC_PRIO_FILLER          1
 21 #define TC_PRIO_BULK            2
 22 #define TC_PRIO_INTERACTIVE_BULK    4
 23 #define TC_PRIO_INTERACTIVE     6
 24 #define TC_PRIO_CONTROL         7
这个就是skb->priority中设置的数据包

有一个例子:

#tc qdisc add dev eth0 root handle 1: htb default 21

#tc class add dev eth0 partent 1: classid 1:1 htb rate 20mbit ceil 20mbit

#tc class add dev eth0 parent 1: classid 1:2 htb rate 80mbit ceil 80mbit

#tc class add dev eth0 parent 1: classid 1:21 htb rate 40mbit ceil 20mbit

#tc class add dev eth0 parent 1:2 classid 1:22 htb rate 40mbit ceil 80mbit

#tc filter add dev eth0 protocol parent 10 prio 1 u32 match ip dport 80 0xffff flowid 1:21

#tc filter add dev eth0 protocol parent 1:0 prio 1 u32 match ip dport 25 0xffff flowid 1:22

#tc filter add dev eth0 protocol parent 1:0 prio 1 u32 match ip dport 23 0xffff flowid 1:1

数据包中根本就没有代表,但是tc也是肯能打标的

那么就再看htb_enqueue

05-29 00:20