如何估算集群所需的存储、计算资源

2024-06-09 16:58

本文主要是介绍如何估算集群所需的存储、计算资源,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、资源预估内容

如果是要解决这个问题,那么最少要从网络资源、存储、内存、CPU四个方面进行预估。

服务器资源评估的交付物是一个类似的服务器需求单:

一般的时候我们评估资源有几个方法:

1、经验预估:大佬专属,看一眼需求就知道得分配多少资源;

2、参考预估:根据以前差不多项目的经验,对照参考预估;

3、技术预估:根据技术参数要求,进行细致的计算后得出。

第1、2种方法在这就不讲了,一个要牛人,一个要类似项目。

二、资源预估方法论

其实就是一些预估的原则,框定大致的范围,这样也比较科学。简单总结了几个原则:

1、最小可用原则:就是不要胡乱拍脑袋。很多人为了免责,参数就得往高了报,造成极大的资源浪费;

2、高可靠高可用原则:访问是有波峰波谷的,我们必须要确保集群在日常正常工作的同时,能抗住波峰的流量,一般来说,波峰波谷的时间占比大概都是28分布;应用服务器也得考虑单节点故障问题;

3、可扩展原则:需要考虑集群扩展的场景,因此类似用途的服务器尽量要用相同规格;

4、便于运维:需要结合团队的实力、技能等情况综合考虑,更多的是人为的因素。

一般来说,我们需要综合考虑需求项目的所有技术参数、技术选型,综合进行规划。要画出网络拓扑图,规划每台服务器的用途,根据用途、访问需求、数据存量增量综合预估。

但是网络拓扑这个不在今天的讨论范围内,所以就略过了;技术选型情况比较多,也无法一一遍历,所以只能给一个普适性的评估方法。

根据技术进行调整就行了。比如离线和实时服务器所需的资源就不一样了,离线偏重存储,实时偏重计算。

三、网络资源预估

网络预估的指标是TPS(Transactions Per Second 每秒处理事务数量)和QPS(Query Per Second 每秒查询数量),吞吐量就是通过这两个指标来衡量的。

这里有一个简单的公式:

公式1:QPS = 设计并发数/平均响应时间

系统设定的同一时间并发用户访问的数量,以及系统的响应效率,决定了QPS。

现在有些项目中直接就确定了QPS、并发数、平均响应时间三个技术指标,这时候就不用算了,直接照着这个做就行。

但是也有其他情况,比如IoT的数据,这个非常规律,要么是24小时非常稳定的,要么就是非常有节奏,工作时间稳定,工作时间之外就停了;

还有互联网的情况,就比较乱了,分布的即为不均匀。基本上是早、中、晚三个高峰,要么是上午、下午、晚上三个高峰。这跟网站、APP的性质不一样而各异。

这时候我们设定一个估算方法就行了。比如按下面这个公式:

公式2:波峰QPS=(全天数据查询量*波峰数据量占比)/(每天3600秒*波峰时间)

 上面的参数可以自己调整,也可以再加几个其他合理的参数就行了。大概的意思就是根据全天的数据接入需求,设定合理的假设,比如80%的数据都在20%波峰时间涌入,这样就能算出波峰QPS了。

一般情况我习惯给出三个方案:

1、高配:即抗住波峰*30%,留出余量;

2、中配:抗住波峰即可;

3、低配:抗住80%波峰;

这时候会根据系统的需求进行选择,或者参考用来进行工作量评估的三点估算法推算出一个最可能的值作为参考。

期望值:Te=(P+4M+O)/6

即:最可能的值Te=(1份最差的结果(峰值最高)+4份波峰+1份小波峰)/6

当然,上面只是参考而已,需要根据实际情况进行调整。比如有些系统实时性不是特别高,选低配就行了,没及时处理的,等波峰过了之后慢慢处理都行;

有些用户实时性要求高、敏感度高的,那就选中高配,确保波峰能过去。同时启动热点监测,跟技术的朋友一起做一个弹性扩容,确保波峰再大,都能实施扩容,确保高可靠搞可用。

我们有几个方法可以知道波峰:

1、根据设计的每天数据接入量,计算波峰QPS(公式1);

2、根据历史数据推算波峰QPS(把历史QPS拉出来看看就知道了);

3、根据并发数和平均响应时间计算QPS(公式2)。

平均响应时间可以用测试的方式得到,各种自动化测试工具都能搞定。非常简单,输入并发数,然后跑一下就能得到不同并发数下的平均响应时间。

一般来说,现在的网卡带宽都很大,费用也不贵,基本上选个千兆、万兆网卡就没问题了,有些人就说计算QPS没啥用。

但是仍然建议算好QPS,因为这是后面存储、计算的根据之一。

四、存储估算

存储估算分两部分:

1、存量部分,存量部分还是比较好算的,就是得统计一下各系统的数据量就行了,最多加一个接入计划。

另外,存量数据也需要分成冷热数据,有条件的话,热数据放在SSD等高速存储里;冷数据可以扔到OSS、SAS机械硬盘,或者压缩一下,减少存储成本。如果有数据退役的管理,那么可以根据退役流程进行转录到磁带机或者直接销毁。

2、增量部分,这个需要考虑几个事情,第一个是应用系统的接入,在统计存量数据的时候顺便调研一下就好了;第二个是IoT、日志等数据源的接入。这时候就得根据QPS计算了。

一般来说,每个QPS或者IoT的数据量是相对比较恒定的,为了方便计算,我们假定是每条数据10kb。

那么每天的数据量就是:

 10KB*10000000条*3个备份=288GB

上面的几个参数都可以进行调整,比如每条数据的大小可能根本不用10kb,备份也不用3个,2个就行了等等。如果是流式数据,还要加一个保留数据的时间参数,比如保留最近3天的数据,就再*3就行了。

这个时候就可以计算集群中每台服务器的存储要求了。比如我们计算出来存量10000G,日增量100G,集群中datanode一共10台,那么每台1T(1024G)就只能刚刚够放存量的。

而每台2T,则可以用(10台*2048G-10000G)/100G=104天。我们按照需求进行规划、调整即可。如果是云服务器,可以整个半年的量,实时监测,提前增量即可;如果是物理服务器,可以增设磁盘阵列,也可以满足需求。

我们监测的时候设一根报警线就行,一般来说,存储的预警值是80%,预留20%空间,及时扩容即可。

五、内存及CPU估算

这个得完全根据技术方案来。离线和实时不一样,增量和全量也不一样,ETL、预计算、跑模型都不一样。

有些要把大量数据放内存里,非常吃内存,有些要开N个线程,疯狂吃CPU。比如ClickHouse相对来说就比较吃CPU,对CPU的要求就要高一些。

这里举几个例子:

  • Kafka内存预估:

假设我们只有10个Topic,每个Topic有5个Partition,但是需要存3个副本,有3台kafka服务器,常驻内存只要最近的30%,那么:

(10Topic*5Partition*3副本*1G文件*0.3内存)/3台服务器=15G。我们选择16G很危险,建议选用32G内存即可。

  • Flink内存预估:

 假设我们QPS1000次/秒,Flink窗口设为5分钟,每条数据10KB,那么可得出所需内存为3GB。

  • 离线计算内存预估:

假设我们有10T的全量数据,每天增100G,离线数据其实不会一次性把所有数据入内存计算,所以比例会少很多。按这个计算,我们所需的内存是:

(10T+100G)*0.02入内存占比/6台服务器,每台服务器需要34GB的内存,这个很尴尬,要么加几台服务器,要么选64G的内存,要么降低我们入驻内存的比率,或者通过合理的流程削峰填谷。

至于CPU的预估,一般按照CPU:内存1:2、1:4(推荐)的比例直接算出来就行了。

64G的内存,选择16core就够了。除非是ClickHouse或者开N个线程的特别吃CPU的组件,可以放大一些,按1:2比例,选32core的。

以上是单独预估的。但是作为架构师,需要全盘考虑。存储的还得考虑NameNode和DataNode的区别,ZooKeeper等管理组件和其他组件共用服务器的情况,实时、离线任务一起跑的情况、热点应对等各类情况,这就不再细说了。

参考资料:微信公众号(大数据架构师)-《如何估算集群所需的存储、计算资源?》

这篇关于如何估算集群所需的存储、计算资源的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1045759

相关文章

centos7基于keepalived+nginx部署k8s1.26.0高可用集群

《centos7基于keepalived+nginx部署k8s1.26.0高可用集群》Kubernetes是一个开源的容器编排平台,用于自动化地部署、扩展和管理容器化应用程序,在生产环境中,为了确保集... 目录一、初始化(所有节点都执行)二、安装containerd(所有节点都执行)三、安装docker-

使用JavaScript操作本地存储

《使用JavaScript操作本地存储》这篇文章主要为大家详细介绍了JavaScript中操作本地存储的相关知识,文中的示例代码讲解详细,具有一定的借鉴价值,有需要的小伙伴可以参考一下... 目录本地存储:localStorage 和 sessionStorage基本使用方法1. localStorage

如何在一台服务器上使用docker运行kafka集群

《如何在一台服务器上使用docker运行kafka集群》文章详细介绍了如何在一台服务器上使用Docker运行Kafka集群,包括拉取镜像、创建网络、启动Kafka容器、检查运行状态、编写启动和关闭脚本... 目录1.拉取镜像2.创建集群之间通信的网络3.将zookeeper加入到网络中4.启动kafka集群

Nacos集群数据同步方式

《Nacos集群数据同步方式》文章主要介绍了Nacos集群中服务注册信息的同步机制,涉及到负责节点和非负责节点之间的数据同步过程,以及DistroProtocol协议在同步中的应用... 目录引言负责节点(发起同步)DistroProtocolDistroSyncChangeTask获取同步数据getDis

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3