引言

  网络驱动是 linux 里面驱动三巨头之一,linux 下的网络功能非常强大,嵌入式 linux 中也常常用到网络功能。前面我们已经讲过了字符设备驱动和块设备驱动,本章我们就来学习一下 linux 里面的网络设备驱动。

一、Linux网络设备驱动的结构

  网络设备驱动程序的体系结构分为4层,依次为网络协议驱动层、网络设备接口层、设备驱动功能层、网络设备与媒介层。

  (1)网络协议接口层向网络层协议提供统一的数据包收发接口,不论上层协议是ARP还是IP,都通过dev_queue_xmit函数发送数据、并通过netif_rx函数接收数据。这一层的存在使得上层协议独立于具体的设备。

  (2)网络设备接口层向协议接口层提供统一的用于描述具体网络设备属性和操作的结构体net_device,该结构体是设备驱动功能层中的各函数的容器。实际上,网络设备接口层从宏观上规划了具体操作硬件的设备驱动功能层的结构。

  (3)设备驱动功能层的各函数是网络设备接口层net_device数据结构的具体成员,是驱使网络设备硬件完成相应动作的程序,它通过hard_start_xmit函数启动发送操作,并通过网络设备上的中断触发接收操作。

  (4)网络设备与媒介层是完成数据包发送和接收的物理实体,包括网络适配器和具体的传输媒介,网络适配器被设备驱动功能层中的函数在物理上驱动,对于linux系统而言,网络设备和媒介都可以是虚拟的。

I.MX6ULL ARM驱动开发---网络设备驱动框架-LMLPHP

  在设计具体的网络驱动程序时,我们需要完成的主要工作是编写设备驱动功能层的相关函数以填充net_device数据结构的内容并将net_device注册入内核。

二、网络协议接口层

  网络协议接口层最主要的功能是给上层协议提供透明的数据包发送和接收接口。当上层ARP或IP需要发送数据包时,它将调用网络接口层的dev_queue_xmit函数发送改数据包。同样地,上层对数据包的接收也通过向netif_rx函数传递struct sk_buff数据结构的指针来完成。

1、dev_queue_xmit 函数

此函数用于将网络数据发送出去,函数定义在 include/linux/netdevice.h 中,函数原型如下:

函数参数和返回值含义如下:

  skb:要发送的数据,这是一个 sk_buff 结构体指针,sk_buff 是 Linux 网络驱动中一个非常重要的结构体,网络数据就是以 sk_buff 保存的,各个协议层在 sk_buff 中添加自己的协议头,最终由底层驱动讲 sk_buff 中的数据发送出去。网络数据的接收过程恰好相反,网络底层驱动将接收到的原始数据打包成 sk_buff,然后发送给上层协议,上层会取掉相应的头部,然后将最终的数据发送给用户。

  返回值:0 发送成功,负值发送失败。

2、netif_rx 函数

  上层接收数据的话使用 netif_rx 函数,但是最原始的网络数据一般是通过轮询、中断或 NAPI的方式来接收。netif_rx 函数定义在 net/core/dev.c 中,函数原型如下:

函数参数和返回值含义如下:
  skb:保存接收数据的 sk_buff。

  返回值:NET_RX_SUCCESS 成功,NET_RX_DROP 数据包丢弃。

struct sk_buff {
	...
	unsigned char *head;
	unsigned char *data;
	unsigned char *tail;
	unsigned char *end;
	...
}

I.MX6ULL ARM驱动开发---网络设备驱动框架-LMLPHP

  sk_buff结构体中,尤其注意的是,head和end指向缓冲区的头部和尾部,而data和tail指向实际数据的头部和尾部。

  针对sk_buff,内核提供了一系列的操作与管理函数,我们简单看一些常见的 API 函数:

3、分配 sk_buff

  要使用 sk_buff 必须先分配,首先来看一下 alloc_skb 这个函数,此函数定义在include/linux/skbuff.h 中,函数原型如下:

函数参数和返回值含义如下:

  size:要分配的大小,也就是 skb 数据段大小。

  priority:内存分配优先级,为 GFP MASK 宏,比如 GFP_KERNEL、GFP_ATOMIC 等。

  返回值:分配成功的话就返回申请到的 sk_buff 首地址,失败的话就返回 NULL。

  在网络设备驱动中常常使用 netdev_alloc_skb 来为某个设备申请一个用于接收的 skb_buff,此函数也定义在 include/linux/skbuff.h 中,函数原型如下:

函数参数和返回值含义如下:

  dev:要给哪个设备分配 sk_buff。

  length:要分配的大小。

  返回值:分配成功的话就返回申请到的 sk_buff 首地址,失败的话就返回 NULL。

  注意的是,该函数内存分配优先级设置为GFP_ATOMIC。原因是该函数经常在设备驱动的接收中断里被调用。

4、释放 sk_buff

  当使用完成以后就要释放掉 sk_buff,释放函数可以使用 kfree_skb,函数定义在include/linux/skbuff.c 中,函数原型如下:

函数参数和返回值含义如下:

  skb:要释放的 sk_buff。

  返回值:无。

  对于网络设备而言最好使用如下所示释放函数:

  函数只要一个参数 skb,就是要释放的 sk_buff。

5、skb_put、skb_push、sbk_pull 和 skb_reserve

这四个函数用于变更 sk_buff,先来看一下 skb_put 函数,此函数用于在尾部扩展 skb_buff的数据区,也就将 skb_buff 的 tail 后移 n 个字节,从而导致 skb_buff 的 len 增加 n 个字节,原型如下:

函数参数和返回值含义如下:

  skb:要操作的 sk_buff。

  len:要增加多少个字节。

  返回值:扩展出来的那一段数据区首地址。

skb_put 操作之前和操作之后的数据区如下图所示:

I.MX6ULL ARM驱动开发---网络设备驱动框架-LMLPHP

skb_push 函数用于在头部扩展 skb_buff 的数据区,函数原型如下所示:

函数参数和返回值含义如下:

  skb:要操作的 sk_buff。

  len:要增加多少个字节。

  返回值:扩展完成以后新的数据区首地址。

skb_push 操作之前和操作之后的数据区如下图所示:

I.MX6ULL ARM驱动开发---网络设备驱动框架-LMLPHP

sbk_pull 函数用于从 sk_buff 的数据区起始位置删除数据,函数原型如下所示:

函数参数和返回值含义如下:

  skb:要操作的 sk_buff。

  len:要删除的字节数。

  返回值:删除以后新的数据区首地址。

skb_pull 操作之前和操作之后的数据区如下图所示:

I.MX6ULL ARM驱动开发---网络设备驱动框架-LMLPHP

sbk_reserve 函数用于调整缓冲区的头部大小,方法很简单讲 skb_buff 的 data 和 tail 同时后移 n 个字节即可,函数原型如下所示:

函数参数和返回值含义如下:

  skb:要操作的 sk_buff。

  len:要增加的缓冲区头部大小。

  返回值:无。

三、网络设备接口层

  网络设备接口层的主要功能是千变万化的网络设备定义统一、抽象的数据结构net_device 结构体,以不变应万变,实现多种硬件在软件层次上的统一。

  net_device 结构体在内核中指代一个网络设备,网络设备驱动程序只需要填充net_device 的具体成员并注册 net_device 即可实现硬件操作函数与内核的挂接。

net_device 是一个庞大的结构体,介绍一些关键成员:

1、申请 net_device

编写网络驱动的时候首先要申请 net_device,使用 alloc_netdev 函数来申请 net_device,这是一个宏,宏定义如下:

可以看出 alloc_netdev 的本质是 alloc_netdev_mqs 函数,此函数原型如下:

函数参数和返回值含义如下:

  sizeof_priv:私有数据块大小。

  name:设备名字。

  setup:回调函数,初始化设备的设备后调用此函数。

  txqs:分配的发送队列数量。

  rxqs:分配的接收队列数量。

  返回值:如果申请成功的话就返回申请到的 net_device 指针,失败的话就返回 NULL。

  事实上网络设备有多种,大家不要以为就只有以太网一种。Linux 内核内核支持的网络接口有很多,比如光纤分布式数据接口(FDDI)、以太网设备(Ethernet)、红外数据接口(InDA)、高性能并行接口(HPPI)、CAN 网络等。内核针对不同的网络设备在 alloc_netdev 的基础上提供了一层封装,比如我们本章讲解的以太网,针对以太网封装的 net_device 申请函数是 alloc_etherdev,这也是一个宏,内容如下:

  可以看出,alloc_etherdev 最终依靠的是 alloc_etherdev_mqs 函数,此函数就是对alloc_netdev_mqs 的简单封装,函数内容如下:

struct net_device *alloc_etherdev_mqs(int sizeof_priv, unsigned int txqs, unsigned int rxqs) 
{ 
	return alloc_netdev_mqs(sizeof_priv, "eth%d", NET_NAME_UNKNOWN, ether_setup, txqs, rxqs);
}

  调用 alloc_netdev_mqs 来申请 net_device,注意这里设置网卡的名字为“eth%d”,这是格式化字符串,大家进入开发板的 linux 系统以后看到的“eth0”、“eth1”这样的网卡名字就是从这里来的。同样的,这里设置了以太网的 setup 函数为 ether_setup,不同的网络设备其 setup函数不同,比如 CAN 网络里面 setup 函数就是 can_setup。

ether_setup 函数会对 net_device 做初步的初始化,函数内容如下所示:

void ether_setup(struct net_device *dev) 
{ 
	dev->header_ops = &eth_header_ops; 
	dev->type = ARPHRD_ETHER; 
	dev->hard_header_len = ETH_HLEN; 
	dev->mtu = ETH_DATA_LEN; 
	dev->addr_len = ETH_ALEN; 
	dev->tx_queue_len = 1000; /* Ethernet wants good queues */
	dev->flags = IFF_BROADCAST|IFF_MULTICAST;
	dev->priv_flags |= IFF_TX_SKB_SHARING;
	
	eth_broadcast_addr(dev->broadcast);
}

2、删除 net_device

当我们注销网络驱动的时候需要释放掉前面已经申请到的 net_device,释放函数为free_netdev,函数原型如下:

函数参数和返回值含义如下:

  dev:要释放掉的 net_device 指针。

  返回值:无。

3、注册 net_device

net_device 申请并初始化完成以后就需要向内核注册 net_device,要用到函数 register_netdev,函数原型如下:

函数参数和返回值含义如下:

  dev:要注册的 net_device 指针。

  返回值:0 注册成功,负值 注册失败。

4、注销 net_device

既然有注册,那么必然有注销,注销 net_device 使用函数 unregister_netdev,函数原型如下:

函数参数和返回值含义如下:

  dev:要注销的 net_device 指针。

  返回值:无。

四、网络 NAPI 处理机制

  NAPI 是一种高效的网络处理技术。NAPI 的核心思想就是不全部采用中断来读取网络数据,而是采用中断来唤醒数据接收服务程序,在接收服务程序中采用 POLL 的方法来轮询处理数据。这种方法的好处就是可以提高短数据包的接收效率,减少中断处理的时间。目前 NAPI 已经在 Linux 的网络驱动中得到了大量的应用,NXP 官方编写的网络驱动都是采用的 NAPI 机制。

1、初始化 NAPI

首先要初始化一个 napi_struct 实例,使用 netif_napi_add 函数,此函数定义在 net/core/dev.c中,函数原型如下:

函数参数和返回值含义如下:

  dev:每个 NAPI 必须关联一个网络设备,此参数指定 NAPI 要关联的网络设备。

  napi:要初始化的 NAPI 实例。

  poll:NAPI 所使用的轮询函数,非常重要,一般在此轮询函数中完成网络数据接收的工作。

  weight:NAPI 默认权重(weight),一般为 NAPI_POLL_WEIGHT。

  返回值:无。

2、删除 NAPI

如果要删除 NAPI,使用 netif_napi_del 函数即可,函数原型如下:

函数参数和返回值含义如下:

  napi:要删除的 NAPI。

  返回值:无。

3、使能 NAPI

初始化完 NAPI 以后,必须使能才能使用,使用函数 napi_enable,函数原型如下:

函数参数和返回值含义如下:

  n:要使能的 NAPI。

  返回值:无。

4、关闭 NAPI

关闭 NAPI 使用 napi_disable 函数即可,函数原型如下:

函数参数和返回值含义如下:

  n:要关闭的 NAPI。

  返回值:无。

5、检查 NAPI 是否可以进行调度

使用 napi_schedule_prep 函数检查 NAPI 是否可以进行调度,函数原型如下:

函数参数和返回值含义如下:

  n:要检查的 NAPI。

  返回值:如果可以调度就返回真,如果不可调度就返回假。

6、NAPI 调度

如果可以调度的话就进行调度,使用__napi_schedule 函数完成 NAPI 调度,函数原型如下:

函数参数和返回值含义如下:

  n:要调度的 NAPI。

  返回值:无。

  我们也可以使用 napi_schedule 函数来一次完成 napi_schedule_prep 和__napi_schedule 这两个函数的工作,napi_schedule 函数内容如下所示:

static inline void napi_schedule(struct napi_struct *n) 
{ 
	if (napi_schedule_prep(n))
		__napi_schedule(n);
}

  从示例代码可以看出,napi_schedule 函数就是对napi_schedule_prep和__napi_schedule 的简单封装,一次完成判断和调度。

7、NAPI 处理完成

NAPI 处理完成以后需要调用 napi_complete 函数来标记 NAPI 处理完成,函数原型如下:

函数参数和返回值含义如下:

  n:处理完成的 NAPI。

  返回值:无。

五、设备驱动功能层

  net_device结构体的成员(属性和net_device_ops结构体中的函数指针)需要被设备驱动功能层赋予具体的数值和函数。对于具体的设备xxx,应该编写相应的设备驱动功能层函数,这些函数如xxx_open()、xxx_stop()等。

  net_device_ops 结构体定义在 include/linux/netdevice.h 文件中,net_device_ops 结构体里面都是一些以“ndo_”开头的函数,这些函数就需要网络驱动编写人员去实现,不需要全部都实现,根据实际驱动情况实现其中一部分即可。结构体内容如下所示(结构体比较大,这里有缩减):

struct net_device_ops { 
	int (*ndo_init)(struct net_device *dev);
	void (*ndo_uninit)(struct net_device *dev);
	int (*ndo_open)(struct net_device *dev);
	int (*ndo_stop)(struct net_device *dev);
	netdev_tx_t (*ndo_start_xmit) (struct sk_buff *skb, struct net_device *dev);
	u16 (*ndo_select_queue)(struct net_device *dev, struct sk_buff *skb,void *accel_priv,select_queue_fallback_t fallback);
	void (*ndo_change_rx_flags)(struct net_device *dev,int flags);
	void (*ndo_set_rx_mode)(struct net_device *dev);
	int (*ndo_set_mac_address)(struct net_device *dev,void *addr);
	int (*ndo_validate_addr)(struct net_device *dev);
	int (*ndo_do_ioctl)(struct net_device *dev,struct ifreq *ifr, int cmd);
	int (*ndo_set_config)(struct net_device *dev,struct ifmap *map);
	int (*ndo_change_mtu)(struct net_device *dev,int new_mtu);
	int (*ndo_neigh_setup)(struct net_device *dev,
	struct neigh_parms *);
	void (*ndo_tx_timeout) (struct net_device *dev);
	......
	#ifdef CONFIG_NET_POLL_CONTROLLER
		void (*ndo_poll_controller)(struct net_device *dev);
		int (*ndo_netpoll_setup)(struct net_device *dev,
		struct netpoll_info *info);
		void (*ndo_netpoll_cleanup)(struct net_device *dev);
	#endif
	......
	int (*ndo_set_features)(struct net_device *dev,netdev_features_t features);
	......
};

  fec_probe 函数设置了网卡驱动的 net_dev_ops 操作集为 fec_netdev_ops,fec_netdev_ops 内容如下:

static const struct net_device_ops fec_netdev_ops = { 
	.ndo_open = fec_enet_open, 
	.ndo_stop = fec_enet_close, 
	.ndo_start_xmit = fec_enet_start_xmit, 
	.ndo_select_queue = fec_enet_select_queue, 
	.ndo_set_rx_mode = set_multicast_list, 
	.ndo_change_mtu = eth_change_mtu, 
	ndo_validate_addr = eth_validate_addr, 
	ndo_tx_timeout = fec_timeout,
	.ndo_set_mac_address = fec_set_mac_address,
	.ndo_do_ioctl = fec_enet_ioctl,
	#ifdef CONFIG_NET_POLL_CONTROLLER
		.ndo_poll_controller = fec_poll_controller,
	#endif
		.ndo_set_features = fec_set_features,
};

1、fec_enet_open 函数简析

打开一个网卡的时候 fec_enet_open 函数就会执行,函数源码如下所示(限于篇幅原因,有省略):

static int fec_enet_open(struct net_device *ndev)
{ 
	struct fec_enet_private *fep = netdev_priv(ndev);
	const struct platform_device_id *id_entry = platform_get_device_id(fep->pdev);
	int ret; 
	pinctrl_pm_select_default_state(&fep->pdev->dev);
	ret = fec_enet_clk_enable(ndev, true);
	if (ret)
		return ret;

	/* I should reset the ring buffers here, but I don't yet know
	* a simple way to do that.
	*/

	ret = fec_enet_alloc_buffers(ndev);
	if (ret)
		goto err_enet_alloc;

	/* Init MAC prior to mii bus probe */
	fec_restart(ndev);

	/* Probe and connect to PHY when open the interface */
	ret = fec_enet_mii_probe(ndev);
	if (ret)
		goto err_enet_mii_probe;

	napi_enable(&fep->napi);
	phy_start(fep->phy_dev);
	netif_tx_start_all_queues(ndev);

	......

	return 0;

	err_enet_mii_probe:
		fec_enet_free_buffers(ndev);
	err_enet_alloc:
		fep->miibus_up_failed = true;
		if (!fep->mii_bus_share)
			pinctrl_pm_select_sleep_state(&fep->pdev->dev);
	return ret;
}

第 9 行,调用 fec_enet_clk_enable 函数使能 enet 时钟。
第 17 行,调用 fec_enet_alloc_buffers 函数申请环形缓冲区 buffer,此函数里面会调用fec_enet_alloc_rxq_buffers 和 fec_enet_alloc_txq_buffers 这两个函数分别实现发送队列和接收队列缓冲区的申请。
第 22 行,重启网络,一般连接状态改变、传输超时或者配置网络的时候都会调用 fec_restart函数。
第 25 行,打开网卡的时候调用 fec_enet_mii_probe 函数来探测并连接对应的 PHY 设备。
第 29 行,调用 napi_enable 函数使能 NAPI 调度。
第 30 行,调用 phy_start 函数开启 PHY 设备。
第 31 行,调用 netif_tx_start_all_queues 函数来激活发送队列。

2、fec_enet_close 函数简析

关闭网卡的时候 fec_enet_close 函数就会执行,函数内容如下:

static int fec_enet_close(struct net_device *ndev) 
{ 
	struct fec_enet_private *fep = netdev_priv(ndev);
	phy_stop(fep->phy_dev);
	if (netif_device_present(ndev))
	{  
		napi_disable(&fep->napi);
		netif_tx_disable(ndev);
		fec_stop(ndev);
	}
	phy_disconnect(fep->phy_dev);
	fep->phy_dev = NULL;
	fec_enet_clk_enable(ndev, false);
	pm_qos_remove_request(&fep->pm_qos_req);
	pinctrl_pm_select_sleep_state(&fep->pdev->dev);
	pm_runtime_put_sync_suspend(ndev->dev.parent);
	fec_enet_free_buffers(ndev);
	return 0;
}

第 5 行,调用 phy_stop 函数停止 PHY 设备。
第 8 行,调用 napi_disable 函数关闭 NAPI 调度。
第 9 行,调用 netif_tx_disable 函数关闭 NAPI 的发送队列。
第 10 行,调用 fec_stop 函数关闭 I.MX6ULL 的 ENET 外设。
第 13 行,调用 phy_disconnect 函数断开与 PHY 设备的连接。
第 16 行,调用 fec_enet_clk_enable 函数关闭 ENET 外设时钟。
第 20 行,调用 fec_enet_free_buffers 函数释放发送和接收的环形缓冲区内存。

3、fec_enet_start_xmit 函数简析

I.MX6ULL 的网络数据发送是通过 fec_enet_start_xmit 函数来完成的,这个函数将上层传递过来的 sk_buff 中的数据通过硬件发送出去,函数源码如下:

static netdev_tx_t fec_enet_start_xmit(struct sk_buff *skb,struct net_device *ndev)  
{  
	struct fec_enet_private *fep = netdev_priv(ndev);
	int entries_free;  
	unsigned short queue;  
	struct fec_enet_priv_tx_q *txq;  
	struct netdev_queue *nq;  
	int ret;  
	queue = skb_get_queue_mapping(skb);
	txq = fep->tx_queue[queue];
	nq = netdev_get_tx_queue(ndev, queue);

	if (skb_is_gso(skb))
		ret = fec_enet_txq_submit_tso(txq, skb, ndev);
	else
		ret = fec_enet_txq_submit_skb(txq, skb, ndev);
	if (ret)
		return ret;

	entries_free = fec_enet_get_free_txdesc_num(fep, txq);
	if (entries_free <= txq->tx_stop_threshold)
		netif_tx_stop_queue(nq);

	return NETDEV_TX_OK;
}

此函数的参数第一个参数 skb 就是上层应用传递下来的要发送的网络数据,第二个参数ndev 就是要发送数据的设备。

第 14 行,判断 skb 是否为 GSO(Generic Segmentation Offload),如果是 GSO 的话就通过fec_enet_txq_submit_tso 函数发送,如果不是的话就通过 fec_enet_txq_submit_skb 发送。这里简单讲一下 TSO 和 GSO:
TSO:全称是 TCP Segmentation Offload,利用网卡对大数据包进行自动分段处理,降低 CPU负载。
GSO:全称是 Generic Segmentation Offload,在发送数据之前先检查一下网卡是否支持 TSO,如果支持的话就让网卡分段,不过不支持的话就由协议栈进行分段处理,分段处理完成以后再交给网卡去发送。
第 21 行,通过 fec_enet_get_free_txdesc_num 函数获取剩余的发送描述符数量。
第 23 行,如果剩余的发送描述符的数量小于设置的阈值(tx_stop_threshold)的话就调用函数netif_tx_stop_queu 来暂停发送,通过暂停发送来通知应用层停止向网络发送 skb,发送中断中会重新开启的。

4、fec_enet_interrupt 中断服务函数简析

前面说了 I.MX6ULL 的网络数据接收采用 NAPI 框架,所以肯定要用到中断。fec_probe 函数会初始化网络中断,中断服务函数为 fec_enet_interrupt,函数内容如下:

static irqreturn_t fec_enet_interrupt(int irq, void *dev_id) 
{ 
	struct net_device *ndev = dev_id; 
	struct fec_enet_private *fep = netdev_priv(ndev);
	uint int_events; 
	irqreturn_t ret = IRQ_NONE;  
	int_events = readl(fep->hwp + FEC_IEVENT);
	writel(int_events, fep->hwp + FEC_IEVENT);
	fec_enet_collect_events(fep, int_events);

	if ((fep->work_tx || fep->work_rx) && fep->link) 
	{
		ret = IRQ_HANDLED;

		if (napi_schedule_prep(&fep->napi)) 
		{
			/* Disable the NAPI interrupts */
			writel(FEC_ENET_MII, fep->hwp + FEC_IMASK);
			__napi_schedule(&fep->napi);
		}
	}

	if (int_events & FEC_ENET_MII) 
	{
		ret = IRQ_HANDLED;
		complete(&fep->mdio_done);
	}

	if (fep->ptp_clock)
		fec_ptp_check_pps_event(fep);

	return ret;
}

  可以看出中断服务函数非常短!而且也没有见到有关数据接收的处理过程,那是因为I.MX6ULL 的网络驱动使用了 NAPI,具体的网络数据收发是在 NAPI 的 poll 函数中完成的,中断里面只需要进行 napi 调度即可,这个就是中断的上半部和下半部处理机制。

第 8 行,读取 NENT 的中断状态寄存器 EIR,获取中断状态,
第 9 行,将第 8 行获取到的中断状态值又写入 EIR 寄存器,用于清除中断状态寄存器。
第 10 行,调用 fec_enet_collect_events 函数统计中断信息,也就是统计都发生了哪些中断。fep 中成员变量 work_tx 和 work_rx 的 bit0、bit1 和 bit2 用来做不同的标记,work_rx 的 bit2 表示接收到数据帧,work_tx 的 bit2 表示发送完数据帧。
第 15 行,调用 napi_schedule_prep 函数检查 NAPI 是否可以进行调度。
第 17 行,如果使能了相关中断就要先关闭这些中断,向 EIMR 寄存器的 bit23 写 1 即可关闭相关中断。
第 18 行,调用__napi_schedule函数来启动 NAPI 调度,这个时候 napi 的 poll 函数就会执行,在本网络驱动中就是 fec_enet_rx_napi 函数。

__napi_schedule函数被轮询方式驱动的中断程序调用,将设备的poll方法添加到网络层的poll处理队列中,排队并且准备接收数据包,最终触发一个NET_RX_SOFTIRQ软中断,从而通知网络层接收数据包。

I.MX6ULL ARM驱动开发---网络设备驱动框架-LMLPHP

fec_enet_init 函数初始化网络的时候会调用 netif_napi_add 来设置 NAPI 的 poll 函数为 fec_enet_rx_napi,函数内容如下:

static int fec_enet_rx_napi(struct napi_struct *napi, int budget)
{ 
	struct net_device *ndev = napi->dev; 
	struct fec_enet_private *fep = netdev_priv(ndev);
	int pkts; 
	pkts = fec_enet_rx(ndev, budget);

	fec_enet_tx(ndev);

	if (pkts < budget) {
		napi_complete(napi);
		writel(FEC_DEFAULT_IMASK, fep->hwp + FEC_IMASK);
	}
	return pkts;
}

第 7 行,调用 fec_enet_rx 函数进行真正的数据接收。
第 9 行,调用 fec_enet_tx 函数进行数据发送。
第 12 行,调用 napi_complete 函数来宣布一次轮询结束,
第 13 行,设置 ENET 的 EIMR 寄存器,重新使能中断。

09-22 12:48