netif_rx函數是在網上收到數據包后,通過中斷機制通知CPU而間接調用的中斷處理例程。
首先,會將Packet傳給netpoll框架,該框架用於在網絡協議棧不可用的情況下,也能夠提供給內核一個收發Packet的接口,用於一些特殊場合的調試等用途。
netpoll只是一種框架和一些接口,只有依賴這個框架和接口實現的netpoll實例,netpoll才能發揮它的功能。類似於kernel中的vfs,vfs本身並不會去做具體的文件操作,只是為不同的文件系統提供了一個框架。netpoll不依賴於網絡協議棧,因此在內核網絡及I/O子系統尚未可用時,也可以發送或接收數據包。當然netpoll能夠處理的數據包類型也很有限,只有UDP和ARP數據包,並且只能是以太網報文。注意這里對UDP數據包的處理並不像四層的UDP協議那樣復雜,並且netpoll可以發揮作用要依賴網絡設備的支持。
如果netpoll沒有處理Packet,那么就塞到CPU的backlog隊列中,即softnet_data->input_pkt_queue隊列中。
那么內核是怎么選擇塞給哪個CPU的呢,有一種機制叫RPS(receive flow steering), 是Google提交的Patch,主要用於解析負載均衡問題。但是在這之前,網卡的中斷信號是連接到哪個CPU的引腳上的呢,這可能要繼續研究APIC的結構,以后再拾這條線。
還有一種機制叫NAPIhttp://blog.csdn.net/efan_linux/article/details/4642019
/*
* enqueue_to_backlog is called to queue an skb to a per CPU backlog
* queue (may be a remote CPU queue).
*/
static int enqueue_to_backlog(struct sk_buff *skb, int cpu,
unsigned int *qtail)
{
struct softnet_data *sd;
unsigned long flags;
sd = &per_cpu(softnet_data, cpu);
local_irq_save(flags);
rps_lock(sd);
if (skb_queue_len(&sd->input_pkt_queue) <= netdev_max_backlog) {
if (skb_queue_len(&sd->input_pkt_queue)) {
enqueue:
__skb_queue_tail(&sd->input_pkt_queue, skb);
input_queue_tail_incr_save(sd, qtail);
rps_unlock(sd);
local_irq_restore(flags);
return NET_RX_SUCCESS;
}
/* Schedule NAPI for backlog device
* We can use non atomic operation since we own the queue lock
*/
if (!__test_and_set_bit(NAPI_STATE_SCHED, &sd->backlog.state)) {
if (!rps_ipi_queued(sd))
____napi_schedule(sd, &sd->backlog);
}
goto enqueue;
}
sd->dropped++;
rps_unlock(sd);
local_irq_restore(flags);
atomic_long_inc(&skb->dev->rx_dropped);
kfree_skb(skb);
return NET_RX_DROP;
}
