如何为百亿数据请求做资源预估

2024-01-25 09:58

本文主要是介绍如何为百亿数据请求做资源预估,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

如何为百亿数据请求做资源预估

  • 如何为百亿数据请求做资源预估
    • 基本准则->先考虑要做什么
    • 计算磁盘资源方法
    • 200亿/s的请求,QPS怎么算, 总集群流量是多少, 选择千兆网还是万兆网?
    • 每台kafka机器内存大小配置
    • CPU核心数选型

如何为百亿数据请求做资源预估

收到需求:每天200亿请求,每个请求3k大小,需要4个副本,数据保留5天,数据有3个不同的主题。数据存储在kafka上,需要多少台机器,机器配置是怎样?

基本准则->先考虑要做什么

1.计算磁盘资源:计算一天的存储数据的增量

2.计算并发资源:QPS

3.计算内存资源:计算kafka内存消耗

计算磁盘资源方法

一天一个副本增量: 200亿*3k = 60T

考虑副本数量:60T*4 = 240T

考虑保留天数:240T*5=1200T

按照满负荷算:每台服务器一般12或16个盘,这里取12台: 需要服务器数量 = 1200T/(2T*12个)=50台

需要机器数量:资源磁盘利用率按照50%算: 应对未来的数据增量。 于是,磁盘使用率降低一半,机器数量需要增加一倍 50台 * 2 = 100台。 ( 1200T/(2T12个50%)=100台)

200亿/s的请求,QPS怎么算, 总集群流量是多少, 选择千兆网还是万兆网?

QPS主要计算高峰时间段的QPS数。

二八法则: 80%的请求在20%的时间产生。

00:00-08:00是请求低峰段

08:00-24:00 这16小时是请求高峰段 : 接收的请求 200亿*80% = 160亿请求

高峰期请求量: 这16小时也有高峰段: 16小时20% = 3.2小时 约等3小时 接收 160亿 * 80% = 128亿 的请求

每秒总QPS: 128亿/(3 * 60 * 60)秒 = 118w/s

每台机器QPS:118w/s / 100 = 1.18万/台 ,

总数据流量大小:每条数据大小3k, 单机流量 1.18w * 3k = 34M/s, 计算有4个副本 34M/s4 = 136M/s, 10个消费者,消费者的流量是34M/s10=340M/s。 总流量=生产流量+消费流量=340M/s + 136M/s = 476M/s

集群环境网卡:选择万兆网卡

每台kafka机器内存大小配置

按照上面配置,100台机器,每台磁盘2T*12个。

已知主题是3个,所以总共3个topic。 为了提高每台机器的cpu利用率,生产消费的并行度,每个topic在每台机器分配5个partition, 单个topic有500个partition(100台机器),4个副本,算上副本500*4=2000个partition,3个topic,就是2000 * 3 = 6000个partition

每台机器partiton数量:60个partition(6000个partition/100台机器)

每个分片日志大小是1G/个文件, 按照kafka把数据在内存读写的特点,把1G文件全部进行缓存,需要6000G内存,6000G/100台=60G/台机器。考虑数据读写很快,不需要把1G的内容全部进行缓存,可以50%或者25%放内存。按照50%进行计算, 每台机器内存需要30G。加上kafka的jvm大小(一般配置6G)和操作系统的内存。配置64G的内存

CPU核心数选型

kafka的工作线程特点,主要工作线程ServerSocket类,内部封装了acceptor,processor, handler线程。

其他是一些后台线程和定时器线程等。

acceptorprocessorhandler
默认线程数138
建议线程数3932

总线程数量大概100-200个。

安装生产经验

4core的机器,跑几十的线程,CPU跑满

8core的机器,跑几十个线程,OK

16core机器,跑100-200个线程

建议16core以上的机器,例如20,24核心。

这篇关于如何为百亿数据请求做资源预估的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/642914

相关文章

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

Linux使用dd命令来复制和转换数据的操作方法

《Linux使用dd命令来复制和转换数据的操作方法》Linux中的dd命令是一个功能强大的数据复制和转换实用程序,它以较低级别运行,通常用于创建可启动的USB驱动器、克隆磁盘和生成随机数据等任务,本文... 目录简介功能和能力语法常用选项示例用法基础用法创建可启动www.chinasem.cn的 USB 驱动

Oracle数据库使用 listagg去重删除重复数据的方法汇总

《Oracle数据库使用listagg去重删除重复数据的方法汇总》文章介绍了在Oracle数据库中使用LISTAGG和XMLAGG函数进行字符串聚合并去重的方法,包括去重聚合、使用XML解析和CLO... 目录案例表第一种:使用wm_concat() + distinct去重聚合第二种:使用listagg,

Java后端接口中提取请求头中的Cookie和Token的方法

《Java后端接口中提取请求头中的Cookie和Token的方法》在现代Web开发中,HTTP请求头(Header)是客户端与服务器之间传递信息的重要方式之一,本文将详细介绍如何在Java后端(以Sp... 目录引言1. 背景1.1 什么是 HTTP 请求头?1.2 为什么需要提取请求头?2. 使用 Spr

Python实现将实体类列表数据导出到Excel文件

《Python实现将实体类列表数据导出到Excel文件》在数据处理和报告生成中,将实体类的列表数据导出到Excel文件是一项常见任务,Python提供了多种库来实现这一目标,下面就来跟随小编一起学习一... 目录一、环境准备二、定义实体类三、创建实体类列表四、将实体类列表转换为DataFrame五、导出Da

Python实现数据清洗的18种方法

《Python实现数据清洗的18种方法》本文主要介绍了Python实现数据清洗的18种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录1. 去除字符串两边空格2. 转换数据类型3. 大小写转换4. 移除列表中的重复元素5. 快速统

Python数据处理之导入导出Excel数据方式

《Python数据处理之导入导出Excel数据方式》Python是Excel数据处理的绝佳工具,通过Pandas和Openpyxl等库可以实现数据的导入、导出和自动化处理,从基础的数据读取和清洗到复杂... 目录python导入导出Excel数据开启数据之旅:为什么Python是Excel数据处理的最佳拍档