Illustrated Guide to Monitoring and Tuning the Linux Networking Stack: Receiving Data

本文主要是介绍Illustrated Guide to Monitoring and Tuning the Linux Networking Stack: Receiving Data,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

太长不读(TL; DR)

这篇文章用一系列图表扩展了以前的博客文章Monitoring and Tuning the Linux Networking Stack: Receiving Data,旨在帮助读者形成一个更清晰的视野来了解Linux网络协议栈是如何工作的

在监控或调优 Linux 网络协议栈试没有捷径可走。如果你希望调整或优化每个组件及其相互作用,你就必须努力充分了解它们。也就是说,以前博客文章的长度可能使读者难以概念化各种组件如何相互作用。希望这个博客文章将有助于澄清这一点了。

Getting started

这些图表旨在概述 Linux 网络协议栈的工作原理,因此,许多细节被排除在外。为了获得完整的描述,我们鼓励读者阅读我们的博客文章 Monitoring and Tuning the Linux Networking Stack: Receiving Data,详细涵盖网络协议栈的各个方面。这些图示的目的是帮助读者形成一个思维的模型,在更高层面了解内核中的某些系统是如何相互作用的。

首先,让我们先看看一些重要的初始设置,这是理解数据包处理之前所必须的。

Initial setup

在这里插入图片描述

设备有许多方法可以提醒cpu的其余部分,某些工作已准备就绪。在网络设备的情况下,NIC 通常会触发 IRQ 中断信号来表示数据包已到达并准备等待处理。当 该IRQ 中断处理被Linux 内核执行时,它会以非常非常高的优先级运行,并且阻止触发其他中断( IRQ)。因此,设备驱动程序中的 IRQ 中断处理程序必须尽快执行,并将耗时的操作推迟到中断下半部执行。这就是 “softIRQ”存在的原因。

Linux 内核中的"softIRQ"组件是一个内核用于处理设备驱动程序中断(IRQ)上下文之外工作的组件,在网络设备的情况下,软中断系统负责处理即将传入的数据包。软中断是在在内核早期的启动过程中初始化的。

上图对应于softIRQ section of our network blog post,并显示了软中断系统及其在每个CPU内核线程的初始化。

软中断系统的初始化如下:

  • 1、内核软中断线程(每个CPU一个)由kernel/softirq.c中的spawn_ksoftirqd调用来自kernel/smpboot.c定义的smpboot_register_percpu_thread创建。如代码所见,run_ksoftirqd的函数被定义为thread_fn,即将在smpboot_thread_fn函数中循环调用。

    static struct smp_hotplug_thread softirq_threads = {                                 .store          = &ksoftirqd,.thread_should_run  = ksoftirqd_should_run,.thread_fn      = run_ksoftirqd,.thread_comm        = "ksoftirqd/%u",
    };                        static __init int spawn_ksoftirqd(void)
    {                         register_cpu_notifier(&cpu_nfb);BUG_ON(smpboot_register_percpu_thread(&softirq_threads));return 0;             
    }                      
    early_initcall(spawn_ksoftirqd);
    
  • 2、ksoftirqd 线程开始循环调用run_ksoftirqd功能进行处理。

  • 3、接下来,为每个 CPU 创建一个softnet_data结构。这个结构体是处理网络数据的重要数据结构。我们会在poll_list中再次看到。poll_list的NAPI 轮询操作结构是通过设备驱动程序调用napi_schedule或其他 NAPI API 调度的。

  • 4、net_dev_init 然后通过调用 open_softirq 向 softirq 系统注册NET_RX_SOFTIRQ软中断。注册的处理函数是net_rx_action。 这就是 softirq 内核线程将执行并用来处理数据包的功能。

Data arrives

在这里插入图片描述

Data arrives from the network!

当网络数据到达 NIC 网卡时,网卡会使用DMA将数据包写入RAM。在 igb 网络驱动程序中,在 RAM 中分配了一个环形缓冲区用来指向接收到的数据包。需要注意的是,某些 NICs 是“多队列”NICs,这意味着它们可以将传入的数据包 DMA 到 RAM 中的许多环形缓冲区中的一个。我们就会看到,这样的 NICs 能够利用多个处理器来处理传入的网络数据。为简单起见,上图仅显示了一个环形缓冲区,但根据您使用的 NIC 和硬件设置,您的系统上可能有多个队列。

阅读有关下面描述的过程的更多详细信息 in this section of the networking blog post.

让我们来看看接收数据的过程:

  1. 数据由 NIC 从网络接收。
  2. NIC 使用 DMA 将网络数据写入 RAM。
  3. NIC 发出 IRQ。
  4. 执行设备驱动程序注册的 IRQ 处理程序。
  5. IRQ 在 NIC 上被清除,以便它可以为新的数据包到达生成 IRQ。
  6. NAPI softIRQ 轮询循环是以调用 napi_schedule 开始。

对 napi_schedule 的调用触发了上图中步骤 5 - 8 。正如我们将看到的,NAPI softIRQ 轮询循环操作启动是通过简单地置位位域中的位并将结构添加到 poll_list 来进行处理。napi_schedule 并没有再进行其他工作,这正是驱动程序将处理推迟到 softIRQ 系统的方式。

继续上一节中的图表标示的数字分析:

  1. 驱动程序中对 napi_schedule 的调用使驱动程序的 NAPI 轮询结构添加到当前 CPU 的 poll_list 中。

  2. 设置 softirq 挂起位,以便该 CPU 上的 ksoftirqd 进程知道有数据包要处理。

  3. run_ksoftirqd 函数(由 ksoftirq 内核线程在循环中运行)执行。

  4. __do_softirq 被调用,它检查挂起的位域,看到一个 softIRQ 正在挂起,并调用为挂起的 softIRQ 注册的处理程序:net_rx_action 为传入的网络数据处理完成所有繁重的工作。

需要注意的是,softIRQ 内核线程正在执行的是 net_rx_action,而不是设备驱动程序 IRQ 处理程序。

Network data processing begins

在这里插入图片描述

现在,数据处理开始。net_rx_action 函数(从 ksoftirqd 内核线程调用)将开始处理已添加到当前 CPU 的 poll_list 的 NAPI 轮询结构。轮询结构一般在两种情况下添加:

  • 从设备驱动程序调用 napi_schedule
  • With an Inter-processor Interrupt in the case of Receive Packet Steering. Read more about how Receive Packet Steering uses IPIs to process packets.

我们将首先从 poll_list 获取驱动程序的 NAPI 结构时会发生什么介绍。(下一节 NAPI 结构如何注册到 用于 RPS 处理的IPIs)。

上图在此处here进行了深入解释,但可以总结如下:

  1. net_rx_action 循环首先检查 NAPI 轮询列表的 NAPI 结构。

  2. 检查预算和运行时间以确保 softIRQ 不会独占 CPU 时间。

  3. 调用注册的轮询函数。 在这种情况下,就是由 igb 驱动程序注册的 igb_poll 函数。

  4. 驱动程序的轮询功能从 RAM 中的环形缓冲区收集数据包(harvests packets from the ring buffer in RAM)。

  5. 数据包被移交给 napi_gro_receive,它将处理可能的Generic Receive Offloading。

  6. 数据包要么为 GRO 保留并且调用链在此结束,要么数据包被传递到 net_receive_skb 以继续前进到协议栈。

接下来我们将看到 netif_receive_skb 如何控制以在多个 CPU 之间均衡分配数据包处理。

Network data processing continues

在这里插入图片描述

网络数据处理从 netif_receive_skb 继续,但数据的路径取决于是否启用了接收数据包控制 (RPS)。缺省的 Linux 内核默认不会启用 RPS,如果您想使用它,则需要明确启用和配置它。

在禁用 RPS 的情况下,使用上图中的数字如下:

    1. netif_receive_skb 将数据传递给 __netif_receive_core。
    1. __netif_receive_core 将数据传送到任何抓包程序(如 PCAP)。
    1. __netif_receive_core 将数据传送到注册的协议层处理程序。在许多情况下,这将是 IPv4 协议栈已注册的 ip_rcv 函数。

在启用 RPS 的情况下:

    1. netif_receive_skb 将数据传递给 enqueue_to_backlog。
    1. 数据包放置在每个 CPU 的输入队列中进行处理。
    1. 远程 CPU 的 NAPI 结构被添加到该 CPU 的 poll_list 中,一个 IPI 排队,如果它尚未运行,它将触发远程 CPU 上的 softIRQ 内核线程唤醒
    1. 当远程 CPU 上的 ksoftirqd 内核线程运行时,它遵循上一节中描述的相同模式处理,但这一次,注册的轮询函数是 process_backlog,它将从当前 CPU 的输入队列中收集数据包。
    1. 数据包被传递到 __net_receive_skb_core
    1. __netif_receive_core 将数据传送到任何抓包程序(如 PCAP)
    1. __netif_receive_core 将数据传送到注册的协议层处理程序。 在许多情况下,这将是 IPv4 协议栈已注册的 ip_rcv 函数

Protocol stacks and userland sockets

接下来是协议栈、netfilter、berkley 包过滤器,最后是用户态套接字。这段代码路径很长,但线性且相对简单。

您可以继续按照网络数据的详细路径进行学习。 该描述的一个非常简短的高级摘要是:

  1. IPv4 协议层使用 ip_rcv 接收数据包。
  2. 执行 Netfilter 和路由优化。
  3. 发往当前系统的数据被传送到更高级别的协议层,如 UDP。
  4. UDP 协议层使用 udp_rcv 接收数据包,并通过 udp_queue_rcv_skb 和 sock_queue_rcv 将数据包排队到用户态套接字的接收缓冲区。 在排队到接收缓冲区之前,berkeley数据包过滤器要先进行处理。

请注意,在整个过程中多次提到 netfilter。 确切的位置可以在我们的详细描述中找到。found in our detailed walk-through

Conclusion

Linux 网络堆栈极其复杂,并且有许多不同的系统相互作用。 任何调整或监控这些复杂系统的努力都必须了解所有这些系统之间的相互作用以及一个系统中更改设置将如何影响其他系统。

这篇(简单)插图的博客文章试图使我们较长的博客文章更易于管理和理解。

这篇关于Illustrated Guide to Monitoring and Tuning the Linux Networking Stack: Receiving Data的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1132203

相关文章

linux进程D状态的解决思路分享

《linux进程D状态的解决思路分享》在Linux系统中,进程在内核模式下等待I/O完成时会进入不间断睡眠状态(D状态),这种状态下,进程无法通过普通方式被杀死,本文通过实验模拟了这种状态,并分析了如... 目录1. 问题描述2. 问题分析3. 实验模拟3.1 使用losetup创建一个卷作为pv的磁盘3.

Linux环境变量&&进程地址空间详解

《Linux环境变量&&进程地址空间详解》本文介绍了Linux环境变量、命令行参数、进程地址空间以及Linux内核进程调度队列的相关知识,环境变量是系统运行环境的参数,命令行参数用于传递给程序的参数,... 目录一、初步认识环境变量1.1常见的环境变量1.2环境变量的基本概念二、命令行参数2.1通过命令编程

Linux之进程状态&&进程优先级详解

《Linux之进程状态&&进程优先级详解》文章介绍了操作系统中进程的状态,包括运行状态、阻塞状态和挂起状态,并详细解释了Linux下进程的具体状态及其管理,此外,文章还讨论了进程的优先级、查看和修改进... 目录一、操作系统的进程状态1.1运行状态1.2阻塞状态1.3挂起二、linux下具体的状态三、进程的

Linux编译器--gcc/g++使用方式

《Linux编译器--gcc/g++使用方式》文章主要介绍了C/C++程序的编译过程,包括预编译、编译、汇编和链接四个阶段,并详细解释了每个阶段的作用和具体操作,同时,还介绍了调试和发布版本的概念... 目录一、预编译指令1.1预处理功能1.2指令1.3问题扩展二、编译(生成汇编)三、汇编(生成二进制机器语

Rsnapshot怎么用? 基于Rsync的强大Linux备份工具使用指南

《Rsnapshot怎么用?基于Rsync的强大Linux备份工具使用指南》Rsnapshot不仅可以备份本地文件,还能通过SSH备份远程文件,接下来详细介绍如何安装、配置和使用Rsnaps... Rsnapshot 是一款开源的文件系统快照工具。它结合了 Rsync 和 SSH 的能力,可以帮助你在 li

Linux部署jar包过程

《Linux部署jar包过程》文章介绍了在Linux系统上部署Java(jar)包时需要注意的几个关键点,包括统一JDK版本、添加打包插件、修改数据库密码以及正确执行jar包的方法... 目录linux部署jar包1.统一jdk版本2.打包插件依赖3.修改密码4.执行jar包总结Linux部署jar包部署

mysqld_multi在Linux服务器上运行多个MySQL实例

《mysqld_multi在Linux服务器上运行多个MySQL实例》在Linux系统上使用mysqld_multi来启动和管理多个MySQL实例是一种常见的做法,这种方式允许你在同一台机器上运行多个... 目录1. 安装mysql2. 配置文件示例配置文件3. 创建数据目录4. 启动和管理实例启动所有实例

Linux内存泄露的原因排查和解决方案(内存管理方法)

《Linux内存泄露的原因排查和解决方案(内存管理方法)》文章主要介绍了运维团队在Linux处理LB服务内存暴涨、内存报警问题的过程,从发现问题、排查原因到制定解决方案,并从中学习了Linux内存管理... 目录一、问题二、排查过程三、解决方案四、内存管理方法1)linux内存寻址2)Linux分页机制3)

VScode连接远程Linux服务器环境配置图文教程

《VScode连接远程Linux服务器环境配置图文教程》:本文主要介绍如何安装和配置VSCode,包括安装步骤、环境配置(如汉化包、远程SSH连接)、语言包安装(如C/C++插件)等,文中给出了详... 目录一、安装vscode二、环境配置1.中文汉化包2.安装remote-ssh,用于远程连接2.1安装2

Linux中shell解析脚本的通配符、元字符、转义符说明

《Linux中shell解析脚本的通配符、元字符、转义符说明》:本文主要介绍shell通配符、元字符、转义符以及shell解析脚本的过程,通配符用于路径扩展,元字符用于多命令分割,转义符用于将特殊... 目录一、linux shell通配符(wildcard)二、shell元字符(特殊字符 Meta)三、s