dpdk/vpp中的memif使用方法

2023-11-04 23:10
文章标签 使用 方法 vpp dpdk memif

本文主要是介绍dpdk/vpp中的memif使用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

简介

同一主机上的不同DPDK进程可以采用内存交换的方式进行报文传输,这一传输接口叫做memif(shared memory packet interface)。传输的报文是原始报文格式,可以配置为Ethernet模式,IP模式,Punt/Inject模式。目前DPDK memif只支持Ethernet模式。memif接口有两种身份,master和slave,也可以称为server和client,两者通过socket传递控制消息。master和slave是一一对应的关系,一个master只能和一个slave连接,两者拥有相同的id。master负责创建socket并监听slave的连接请求。slave负责创建共享内存文件和初始化共享内存,并且会主动发起socket连接请求。

memif采用unix域套接字来传递控制消息,每组memif在socket里面都有一个唯一的id,这个id也是用来识别对端接口的标识。slave接口在创建的时候,会在指定的socket上尝试连接。socket的监听进程即master接口所在的进程会提取连接请求,并创建一个连接控制信道,并通过此信道发送hello消息,这条消息包含了一些配置信息。slave收到hello消息之后,会根据消息所带的配置来调整自己的配置,随后回复init消息。init消息包含了接口id,监听进程提取接口id,并将控制信道绑定到对应的接口上,之后回复ack。slave收到ack之后就开始创建内存区域(region)和环形队列(ring),并针对每个region和ring都发送一条add消息,master收到后需要逐一回复ack。待slave收到最后一条add ring的ack回复之后,就会发送connect消息,表示slave已经准备就绪。master收到此消息之后,会将region映射到自己的地址空间,初始化ring并回复connected消息,之后就能进行数据报文传输。如果接口状态出现异常,无论是master还是slave,都可以随时发送断开连接请求。

master和slave的协商过程如下:

共享内存

slave是共享内存的生产者,而master是消费者。内存区域(region)是映射的共享内存文件,由 memif slave创建并在连接建立时提供给master。内存区域包含了ring和buffer。ring和buffer可以被分配在多个不同的内存区域。对于非零拷贝模式,ring和buffer只能开辟在同一个内存区域以减少需要打开的文件数量。

slave 非零拷贝内存区域结构 region n (no-zero-copy):

RingsBuffers
S2M ringsM2S ringspacket buffer 0...packet buffer n

buffer的总数量为 (ring的数量) x (ring size)。

ring 数据结构:

typedef struct {
    MEMIF_CACHELINE_ALIGN_MARK(cacheline0);
    uint32_t cookie;                                                /**< MEMIF_COOKIE */
    uint16_t flags;                                                   /**< flags */
#define MEMIF_RING_FLAG_MASK_INT 1        /**< disable interrupt mode */
    uint16_t head;                                                   /**< pointer to ring buffer head */
    MEMIF_CACHELINE_ALIGN_MARK(cacheline1);
    uint16_t tail;                                                      /**< pointer to ring buffer tail */
    MEMIF_CACHELINE_ALIGN_MARK(cacheline2);
    memif_desc_t desc[0];                                     /**< buffer descriptors */
} memif_ring_t;

描述符数据结构:

typedef struct __rte_packed {
    uint16_t flags;                                           /**< flags */
#define MEMIF_DESC_FLAG_NEXT 1       /**< is chained buffer */
    memif_region_index_t region;                  /**< region index on which the buffer is located */
    uint32_t length;                                         /**< buffer length */
    memif_region_offset_t offset;                   /**< buffer offset */
    uint32_t metadata;
} memif_desc_t;

描述符中有个MEMIF_DESC_FLAG_NEXT标志,如果这个标志被置上了,就代表当前的报文长度大于buffer长度,报文会被分成多个buffer存储,并且buffer有可能不连续的。

slave零拷贝客户端:

在进行memif接口配置的时候,可以将slave配置成零拷贝模式。配置成这种模式时,所有的buffer都是从slave进程的memseg中分配出来并暴露给master。DPDK必须使能 ‘–single-file-segments’,保证所有的buffer都在同一块memseg,可以很容易从内存文件的起始位置偏移出buffer的地址,并且buffer的地址是连续的。

slave非零拷贝 vs slave零拷贝

slave配置成非零拷贝模式时,需要在slave内存空间中单独开辟一块内存区域,slave轮询读取从master发送过来的报文时,需要将报文从region的buffer中拷到memseg当中,slave往master发送报文时,需要先将报文拷贝到region当中,然后由master轮询读取。master去读写报文时,始终都需要内存拷贝。

slave配置成零拷贝模式时,buffers直接在slave的memseg上分配,slave进程直接操作buffer描述符即可,无需额外内存拷贝,只需要master进程读写报文时进行内存拷贝。 

组网测试

下面使用vpp配置memif接口,对比验证下memif的性能。

在服务器上分别起两个vpp进程,vpp1和vpp2。vpp1和vpp2各配置了1个main core和1个work core。在vpp1上创建memif1/1并配置成master,在vpp2上创建memif1/1并配置成slave。vpp1和vpp2各绑定一个10G以太网卡,网口连接交换机,同时Test Center上也有两个10G以太网接口连接交换机。测试流从Test Center一个端口经过vpp1和vpp2两次L3转发至Test Center另外一个端口。测试拓扑图如下:

分别测试以下4中情况的报文转发性能:

1. vpp1和vpp2的core以及绑定的网卡在同一个numa node,vpp2的memif slave配置成零拷贝模式。

2.  vpp1和vpp2的core以及绑定的网卡在同一个numa node,vpp2的memif slave配置成非零拷贝模式。

3. vpp1和vpp2的core以及绑定的网卡在不同的numa node,vpp2的memif slave配置成零拷贝模式。

4. vpp1和vpp2的core以及绑定的网卡在不同的numa node,vpp2的memif slave配置成非零拷贝模式。

vpp1和vpp2上配置命令如下:

创建memif的时候加上no-zero-copy可以配置成非零拷贝模式。另外配置的时候需注意绑定的网卡和core与numa的关系是否和设想的一致。

##### vpp1 配置
set int state TenGigabitEthernetc2/0/0 up
create sub-interfaces TenGigabitEthernetc2/0/0 1 dot1q 1019 exact-match
set interface state TenGigabitEthernetc2/0/0.1 up
set interface ip address TenGigabitEthernetc2/0/0.1 192.85.1.29/24
create memif socket id 111 filename /run/vpp/contiv/memif111.sock
create interface memif id 1 socket-id 111 master ring-size 8192 tx-queues 2 rx-queues 2
# create interface memif id 1 socket-id 111 master ring-size 8192 tx-queues 2 rx-queues 2 no-zero-copy
set interface state memif111/1 up
set interface ip address memif111/1 2.2.2.3/24
ip route add 192.85.2.0/24 via 2.2.2.2##### vpp2 配置
set int state TenGigabitEthernet1/0/1 up
create sub-interfaces TenGigabitEthernet1/0/1 1 dot1q 1020 exact-match
set interface state TenGigabitEthernet1/0/1.1 up
set interface ip address TenGigabitEthernet1/0/1.1 192.85.2.29/24
create memif socket id 111 filename /run/vpp/contiv/memif111.sock 
create interface memif id 1 socket-id 111 slave ring-size 8192 tx-queues 2 rx-queues 2
# create interface memif id 1 socket-id 111 slave ring-size 8192 tx-queues 2 rx-queues 2 no-zero-copy
set interface state memif111/1 up
set interface ip address memif111/1 2.2.2.2/24
ip route add 192.85.1.0/24 via 2.2.2.3

vpp配置完成之后,从TC上分别ping 192.85.1.28和192.85.2.28以完成mac地址的学习。

##### vpp1
vpp# show ip neighborTime                       IP                    Flags      Ethernet              Interface       69.9117               192.85.1.28                 D    00:10:94:00:00:02 TenGigabitEthernetc2/0/0.131.1328                 2.2.2.2                   D    02:fe:64:40:98:8d memif111/1##### vpp2
vpp# show ip neighborTime                       IP                    Flags      Ethernet              Interface       186.6420               192.85.2.28                 D    00:10:94:00:00:19 TenGigabitEthernet1/0/1.127.8395                 2.2.2.3                   D    02:fe:48:42:a7:89 memif111/1

从Test Center 端口发送报文长度为1024字节的udp报文,测试vpp三层转发以及memif性能。报文格式如下:

测试结果如下:

从时延和vpp矢量数据可以看出,采取零拷贝模式,在基于dpdk的不同应用间进行高性能流量转发,也有着不错的性能,不失为一个较好的解决方法。

这篇关于dpdk/vpp中的memif使用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/345817

相关文章

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操