netif_rx解析


netif_rx函數是在網上收到數據包后,通過中斷機制通知CPU而間接調用的中斷處理例程。

首先,會將Packet傳給netpoll框架,該框架用於在網絡協議棧不可用的情況下,也能夠提供給內核一個收發Packet的接口,用於一些特殊場合的調試等用途。

netpoll只是一種框架和一些接口,只有依賴這個框架和接口實現的netpoll實例,netpoll才能發揮它的功能。類似於kernel中的vfs,vfs本身並不會去做具體的文件操作,只是為不同的文件系統提供了一個框架。netpoll不依賴於網絡協議棧,因此在內核網絡及I/O子系統尚未可用時,也可以發送或接收數據包。當然netpoll能夠處理的數據包類型也很有限,只有UDP和ARP數據包,並且只能是以太網報文。注意這里對UDP數據包的處理並不像四層的UDP協議那樣復雜,並且netpoll可以發揮作用要依賴網絡設備的支持。

如果netpoll沒有處理Packet,那么就塞到CPU的backlog隊列中,即softnet_data->input_pkt_queue隊列中。

那么內核是怎么選擇塞給哪個CPU的呢,有一種機制叫RPS(receive flow steering), 是Google提交的Patch,主要用於解析負載均衡問題。但是在這之前,網卡的中斷信號是連接到哪個CPU的引腳上的呢,這可能要繼續研究APIC的結構,以后再拾這條線。

還有一種機制叫NAPIhttp://blog.csdn.net/efan_linux/article/details/4642019

/*
 * enqueue_to_backlog is called to queue an skb to a per CPU backlog
 * queue (may be a remote CPU queue).
 */
static int enqueue_to_backlog(struct sk_buff *skb, int cpu,
                  unsigned int *qtail)
{
    struct softnet_data *sd;
    unsigned long flags;
 
    sd = &per_cpu(softnet_data, cpu);
 
    local_irq_save(flags);
 
    rps_lock(sd);
    if (skb_queue_len(&sd->input_pkt_queue) <= netdev_max_backlog) {
        if (skb_queue_len(&sd->input_pkt_queue)) {
enqueue:
            __skb_queue_tail(&sd->input_pkt_queue, skb);
            input_queue_tail_incr_save(sd, qtail);
            rps_unlock(sd);
            local_irq_restore(flags);
            return NET_RX_SUCCESS;
        }
 
        /* Schedule NAPI for backlog device
         * We can use non atomic operation since we own the queue lock
         */
        if (!__test_and_set_bit(NAPI_STATE_SCHED, &sd->backlog.state)) {
            if (!rps_ipi_queued(sd))
                ____napi_schedule(sd, &sd->backlog);
        }
        goto enqueue;
    }
 
    sd->dropped++;
    rps_unlock(sd);
 
    local_irq_restore(flags);
 
    atomic_long_inc(&skb->dev->rx_dropped);
    kfree_skb(skb);
    return NET_RX_DROP;
}


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM