本文主要是介绍人人网UGC海量存储系统Nuclear介绍,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
转kuqin网上一篇介绍人人网实现海量存储的文章,人人网构建了自己的存储系统Nuclear,先简单列列感想。
又一个使用java构建的分布式的key-value存储系统,在设计思想上严重受到GFS的影响。
在存在中心管理节点的情况下,怀疑其提到的“无限扩展性”,夸张了;
不过通过一致性hash算法来确定key对应的value会落到哪个存储节点上,使得中心节点对存储节点的信息知晓最少,集群规模可以大大扩展;
在添加、删除节点时,通过分区管理模块迁移数据来踢除“脏数据”;确保数据正确性。
感慨构建在java之上的分布式存储系统越来越多了... ...
人人网UGC海量存储系统Nuclear介绍
书曰:工欲善其事,必先利其器。人人网作为国内第一大SNS网站,欲存海量UGC数据,必有海量存储系统。Nuclear存储系统在高性能、高可靠、可扩展的海量数据存储 需求下横空出世,待小的给列位看官慢慢道来。
缘由篇
看过《人人网使用的开源软件列表 》一文的看官一定知道人人网的关系型数据库使用的是MySQL,Key-Value存储使用的是Tokyo Cabinet , 话说战斗在第一线的UGC Team的兄弟们发现,MySQL虽然已经被我们用上了散库、散表大法,但是每次数据达到服务器负载临界值时,必然得经过一番迁移数据的剧痛;使用TC也 会存在这个问题,且TC只在某些特定的应用场景起作用。于是乎,我们开始需找能满足高性能、高可靠、可扩展等特性,同时能符合UGC应用场景的存储系统, 下表列出我们的考察对象及需求。
TC在使用过程中发现单独使用TC会在某些时间点出现性能瓶颈;Voldemort 目前的版本对扩展性支持不好;且Voldemort和Casscandra 作为一个正在快速开发中的系统,我们尚未有勇气把它引入到生产环境中。追溯到Amazon的Dynamo 系统,我们决定在其思想上开发自己的存储系统,Nuclear就是在这样的背景下诞生的。言归正传,给各位道来功能篇及应用篇。
功能篇
高可扩展
一个Nuclear集群支持1到n(n<264 )个节点(Node)的规模,每台服务器(Server)支持部署多个节点。当集群资源达到瓶颈时,可以通过增加新的节点来扩展。增加新节点的过程,系统服务无需停止,无需人工干预迁移数据。Nuclear理论上可以无限Scale-Out 。
高可靠
单个节点的crash永远对系统的运行造成影响,不存在单点风险。数据的写入参考Dynamo 的W+R>N理论,简释之,例如设置系统每一份数据都存储在3个节点上(N=3),那么读的话必须成功读到两个节点上的数据才认为读成功 (R=2),写的话必须成功写到两个节点上才认为写成功( W=2)。系统永远可写入(Hinted HandOff)。
高性能
在Xeon E5405 CPU的服务器上,单节点每秒最高2.5w req/s。整个集群的性能取决于一致性级别、N、W、R数及底层存储引擎的选择。例举我们的一个测试数据:
节点数量:4 Node (Server配置: Xeon E5405,16G memory,千兆网卡)
存储引擎:Mysql5.0.45
参数:N=3 W=2 R=2
压力:100 Client Write Request
测试结果:单个Node 15862 req/s,从Client看平均单次请求耗时5ms(见图), 99.51% 请求耗时 < 50ms
存储
Nuclear本身的数据存储是基于Key-Value形式的,value的形式可以是富数据模型,也可以是List;如果底层的存储引擎是关系型的,那么Nuclear还提供弱结构化的查询功能。下面是Nuclear目前及计划中支持的存储引擎。
*Cassandra我们只使用其底层的存储引擎
应用篇
Nuclear组件介绍
普通节点(Node)
普通节点的职责是接收并处理来自Client的请求,管理该节点上的存储引擎。
中心节点(Seed)
中心节点维护着整个Nuclear集群的拓扑关系(membership),它熟知每一个节点负责的数据区域。它定时对所有节点进行健康检测,因此熟知每一个节点当前的状态及负责的数据区域。
客户端(Nuclear Client)
提供简单有效的CRUD API。详情如下:
Get
@param key<String>
@param dataID<Long>
@param consistencyLevel
@return ByteString
List
@param key<String>
@param Condition<?>
@param consistencyLevel
@return List<ByteString>
Put
@param key<String>
@param dataID<Long>
@param value<ByteString>
@param consistencyLevel
Replace
同 Put
dataID可选
Delete
@param key<String>
@param dataID<Long>
@param consistencyLevel
NextDataID
@reutrn dataID<Long>
参数详解:
@param dataID<Long> dataID
每一条数据在Nuclear集群中的唯一标示,由系统提供。使用DataID而不是Key作为数据的唯一标示的目的是为了满足Key->List的需求。
@param consistencyLevel
一致性级别,Nuclear系统提供一致性级别选择如下:
- DISCARD 请求发送至Node后即可,无需认为是否成功(List,Get不支持此级别)
- MIN 至少成功请求一个Node
- QUORUM 严格按照N+W>R理论
- DISCARDQUORUM 按照N+W>R理论,但允许Hinted HandOff
- ALL成功请求的节点数必须是N@param value<ByteString>
Nuclear系统存储的数据使用Google的protocol buffers 协议,因此存入和取出的数据都是google的 ByteString 类型@param Condition
结构化数据的条件查询参数,目前仅支持MySQL引擎下按DataID检索、排序及分页Code Example:
系统部署图
图释:每一个节点都会和其它的节点建立联系,但来自Client的请求只会落在普通节点上。
集群管理
Nuclear提供对节点的增、删、替换操作,面对使用者非常简单,只需要知晓仅有的几个命令即可。
增加 : sh node.sh new A
node.sh是node启动的脚本;new标示当前节点为新增;A标示新增的节点去分担现有的A节点的负载。删除 : delete node A
进入Nuclear管理后台,执行该命令替换 : sh node.sh replace A
后台管理 : sh manage.sh nodeip nodeport
目前提供如下功能点: - QPS查看
- Node接收请求总数
- Node处理请求耗时数据
- 节点信息查看
- 集群拓扑信息查看
- 动态更改节点工作线程数
原理篇
Nuclear系统构建于java之上,NIO组件使用Netty ,数据序列化使用google的Protocol Buffers ,Spring当然是用了的。下图是Nuclear系统内部的一个预览:
嗯……其实这张图对各位看官意义不大,只是罗列出了Nuclear中的各个组件及简单的层次关系。下面着重分析分区、节点增减、路由的原理。
分区
前 文讲到,我们是一个分布式的Key-Value存储系统,那么key对应的数据分布在什么节点上,需要遵守一定的规则。熟悉Memecached Client的同学一定清楚一致性Hash的应用,没错,Hash Ring就是我们的不二选择。在Nuclear中,数据分布在0~264 的Hash Ring上,Nuclear集群初始化的时候,根据节点数均分整个Hash Ring。如下图所示:
在N=3时,A,B,C三个节点的配置就是系统需要的最少节点了。Nuclear中,顺时针的开始值和结束值确定一个分区管理的数据范围,同时规定分区的范围左开右闭。因此,如上图,我们记录A,B,C分别管理的分区范围是:
A {[c,a],[b, c],[a,b]}
B {[a,b],[c,a],[b,c]}
C {[b,c],[a,b],[c,a]}
可以看出,A处理管理自己的分区数据外,还会把自己管理的数据顺时针往前复制到2 (N-1) 个节点中。节点变更
Nuclear 增加节点时需要制定目标节点的名称,即增加的节点是用来分担目标节点的负载的。这点不同于Dynamo的分区策略,节点增加的时候会均衡的从现有的节点窃 取分区,Nuclear中增加的节点只会影响到邻近的三个节点。加入我们在上面的例子中增加一个新节点N后分区图如下所示:
记录N,A,B,C管理的分区如下:
N {[c,n],[b,c],[a,b]}
A {[n,a],[c,n],[b,c]}
B {[a,b],[n,a],[c,n]}
C {[b,c],[a,b],[n,a]}
Nuclear的分区管理模块将自动的计算出需要同步到N上的数据:
A [a,b] => N
B [b,c] => N
C [c,n] => N
各位看官不难明白,其实就是把A,B,C不再需要的数据挪给新的节点了。删、替换节点原理大同小异,不再冗述。路由
Nuclear 提供服务器端路由策略,Client的请求随机落在Node节点上,由接收到请求的节点处理后续的逻辑。相对于Client端路由来说,优点是 Client无需知道Nuclear集群元数据,易于维护;缺点是会造成一定程度的延时,不过我们的测试结果显示延时在可接受范围之内。
两个设计上的Tips贡献给大家:
1. 万事皆异步
我们在编码的过程中走了一些弯路,同步的操作在高并发的情况下带来的性能下降是非常恐怖的,于是乎,Nuclear系统中任何的高并发操作都消除了Block。no waiting, no delay。2. 根据系统负载控制后台线程的资源占用
Nuclear系统中有不少的后台线程默默无闻的做着各种辛苦的工作,但是它们同样会占用系统资源,我们的解决方案是根据系统负载动态调整线程的运行和停止,并达到平衡。
展望篇
Nuclear中计划在不远的将来(不远有多远?)实现如下功能:
- Eventually Consistent 最终的一致性问题,在保重数据完整性上至关重要。
- Async Store 异步数据库存储,各位可以参考:adbcj , async-mysql-connector
- Read Cache
- Balance Monitor 建立集群的负载监控体系,在新节点加入的时候可以自动去平衡负载最高的节点。
全文完^_^,谢谢各位的捧场,同时有任何好的建议欢迎提出!
参考资料:
- Amazon’s Dynamo
http://www.allthingsdistributed.com/2007/10/amazons_dynamo.html - Cassandra
http://incubator.apache.org/cassandra/ - Voldemort
http://project-voldemort.com/
- 转载地址:http://www.kuqin.com/system-analysis/20100205/79192.html
这篇关于人人网UGC海量存储系统Nuclear介绍的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!