bigData Ecosystem Unscramble

2024-02-07 04:30

本文主要是介绍bigData Ecosystem Unscramble,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

bigData Ecosystem Unscramble

主题>>:  cloudEra hadoop Ecosystem sim Unscramble; ruiy哥个人理解总结,其实我无非也还是站在那"砖家/叫兽"的肩上瞎扯扯(至于名词我就乱引用了,木关它神马领域?在此用用吧,你要是想改改啥,随你吧,搞技术的随意最好),不是巨人肩啊,如今已经没有牛顿了,更没他的肩给我们搭,哈哈其实我也是瞎说下啦,请口下留情莫喷我,当然不排除有大牛,玩技术犹如庖丁解牛般...!,本文核心在于简单谈谈hadoop ecosystem,顺便简单搭建bigData analysis Platform测试环境,具体关于Hdfs,ndfs,Mapredce,spark,MPI,hbase请继续关注本站后续有空了ruiy哥搞搞copy,paste吧,哈哈,但哥可是几经波折后再淘宝的哦亲!,想弄的(搞java MP(海量并发)开发的哥们去吧,哥不搞这方面开发的,ruiy哥搞啥的,关注本站吧,其实ruiy哥自己也不清楚哈!)请查看google GFS,bigTable,MapReduce,毕竟它们是hadoop ecosystem的祖辈!;

  hadoop ecosystem components;

1,hive warehourse(derby一个运行在JVM上的数据库,用于存储hdfs metadata,可以用mysql替;)

2,hbase Nosql Database(分布式,面向列的Nosql数据库,运行于JVM上),包括hbase和zookeeper组件,其分成3中运行模式standalone(不使用HDFS,而是使用本地的文件系统) pseudo-distributed(使用单机HDFS),distributed完全使用HDFS,至少3简单,zookeeper集群至少3node,其中其简单数应为奇数,distributed时,配置conf/hbase-site.xml。设定hbase.rootdir来指定Hbase运行在哪个HDFS上;

具体的我就不一一点名了;

完全分布式还需指定

在配置hbase时需修改/etc/security/limits.conf

添加如下语句

  1. hadoop - nofile 65535
  2. hadoop soft/hard nproc 65535
  3. 在 /etc/pam.d/common-session 加上这一行:

    session required pam_limits.so

    否则在 /etc/security/limits.conf上的配置不会生效.


    不然会报拒绝连接错误,这个是肯定的,因为你要是弄过socket编程就明白了,我们在设定socket服务器的listen函数时backlog参数就是设定最大的客户端数量,当实际的访问用户数大于backlog时,后面陆续的访问用户接收到信息均是拒绝连接在linux系统下 你可以用命令lsof|wc -l查看当前以打开的文件数 ,系统默认最大的打开数为1024,这个数目是肯定不够跑的,瞎扯的未到科学院实验拿证书!自己无聊瞎想的,你不要信,信不信由你,反正我信了,请飘过!;

    别的属性值设置

 

hadoop简单集群测试环境核心配置文件实例,我就简单点了,大牛你请自便,毕竟咱弄的仅仅是测试环境,又请注意了,hadoop优势在海量数据处理上,你测的太小的数据量就不要往这上面丢了,否则跑的太慢,你们又说人家这家伙能力不照,伤人家心啊,人家可是生来就不干這事的,自己理解吧,ruiy哥先飘了!

 hbase在HAdoop主节点60010口上有个GUI,

 

 

hive warehorse

 

附:hadoop+hive+hbase完全分布式搭建,仅用于测试环境,生产环境需修改增加相应的属性值及系统内核相关参数,否则请慎用!!!

 updating and upgrading!!!!!!;;

 配置hive
cp -r hive-0.8.1/conf $HIVE_CONF_DIR/
cd $HIVE_CONF_DIR/  我指定的就是hive根目录下的conf/
cp hive-default.xml.template hive-default.xml 还有一个是hive-site.xml(这个优先权大于default);

cat hive-env.sh
export HADOOP_HEAPSIZE=512
export HIVE_CONF_DIR=/home/hadoop/hive-conf

export HADOOP_HOME=/usr/local/hadoop02

配置用mysql来装载hdfs的metastore

修改hive-site.xml或是hive-default.xml

添加如下行  或是直接放在hive-site.xml中,default与site共存,同时下下面的数据库及权限你提前要在mysql下弄好;

<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://slave1:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hivepass</value>
</property>

 

hbase完全分布式配置

 

hadoop完全分布式在此就省了,有点阅历的运维10分钟内搞不定3节点简单集群环境,自个面壁去;

后续退出shell自动跑来部署此环境请继续关注;

posted on 2014-03-10 16:49 秦瑞It行程实录 阅读( ...) 评论( ...) 编辑 收藏

转载于:https://www.cnblogs.com/ruiy/p/analysis.html

这篇关于bigData Ecosystem Unscramble的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/686518

相关文章

[bigdata-037]apache hue 用SQL获取数据以及可视化

1. hue官网 https://github.com/cloudera/hue http://gethue.com/ 2. hue的功能 有py2+django开发,提供Hive, Impala, MySQL, Oracle, PostgreSQL, Spark SQL, Solr SQL, Phoenix...等SQL数据获取和页面展示 3. 用docker 安装hue

[bigdata-036] mit-scheme试用

1. 安装Mit-scheme apt-get install mit-scheme 2. 写一个hello wold代码, hi.scm (begin(display "Hello, World!")(newline)) 3. 在命令行执行 scheme,进入交互界面,然后输入命令 (load 'hi.scm') 将执行这个文件,然后输出 "Hello, World

[bigdata-035]用js dtree展示一个树形结构 py3+dtree+jquery

1. dtree的下载 http://destroydrop.com/javascripts/tree/default.htm 2. 目录结构 . ├── static │   ├── css │   │   └── dtree.css │   ├── img │   │   ├── base.gif │   │   ├── cd.gif │   │   ├── diffDoc.gif

[bigdata-34] pyenv和anaconda 4.2 和 python3.5和 ubuntu 16.04 安装

1. pyenv 官网 https://github.com/yyuu/pyenv   2. 安装 git clone https://github.com/yyuu/pyenv.git ~/.pyenv echo 'export PYENV_ROOT="$HOME/.pyenv"' >> ~/.bashrc echo 'export PATH="$PYENV_ROOT/bin:$PAT

[bigdata-032] 把json文件导入到mongodb

用mongoimport命令 mongoimport -d db1 -c colle1 --type json --file cc.json --host 114.55.66.77 --upsert -u user1 -p passwd1 这个命令,如果同id的记录在,就更新,如果记录id不重复,就插入。因为upsert,所以会比较慢。 mongoimport -d db1 -c colle

[bigdata-031] python3+selenium 做抓取

1. 安装 1.1 pip3 install -U selenium 1.2 下载 https://github.com/mozilla/geckodriver/releases/download/v0.13.0/geckodriver-v0.13.0-linux64.tar.gz  解压缩,然后放到/usr/bin目录 2. 抓取豆瓣 #!/usr/bin/env python3

[bigdata-030] cdh 5.9的impyla操作hiveserver2

参考文献:http://www.aichengxu.com/view/11094184 1. cdh 5.9 2. 开发机已经安装了impyla pip install thrift_sasl pip install sasl 3. 在cdh集群的一个节点启动hiveserver2 3.1 修改/etc/hive/conf.cloudera.hive/hive-sit

[bigdata-029] 在centos 7上安装maria

centos 7以上版本支持mysql的另一个分支maria 安装方式如下 正确安装mariadb http://blog.csdn.net/default7/article/details/39138139 http://blog.csdn.net/default7/article/details/41973887 yum install mariadb* service m

[bigdata-028]apache nifi 从mysql导出数据到hbase

0.在hbase节点,启动thrift服务 hbase-daemon.sh start thrift 1. 在本机启动nif ./bin/nifi.sh start 2. 在浏览器输入http://localhost:8080/nifi,看到nifi的界面 3. 拖一个processor ExecuteSQL到界面     3.1 在processor上点击右键