Hadoop HDFS 3.3.1分布式存储搭建
vim /etc/hosts
192.168.207.164 centos8-0
192.168.207.165 centos8-1
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce
vim /etc/selinux/config
SELINUX=disabled
另一台机器,重复1.1-1.3步骤
1.4 配置免密登陆
1.4.1 使用root用户登陆系统生成密钥:
ssh-keygen
一直回车确定 (生成的密钥文件在/root/.ssh下 id_rsa 、id_rsa.pub)
1.4.2 配置自己对自己的免密登陆:
ssh-copy-id centos8-0
(另一台机器ssh-copy-id centos8-1)根据提示输入yes,输入密码(centos8-0就是你当前台的主机名)。
1.4.3 将密钥文件拷贝到第二台主机上:
ssh-copy-id centos8-1
(另一台机器ssh-copy-id centos8-0),根据提示输入yes,根据提示输入对方主机的root密码。
1.4.4 配置完免密登陆后,相互测试一下,能不能免密登录:
ssh centos8- (ssh centos8-1)
tar zxf jdk-8u131-linux-x64.tar.gz
mv jdk1.8.0_131 /usr/local
export JAVA_HOME=/usr/local/jdk1.8.0_131
export JRE_HOME=/usr/local/jdk1.8.0_131/jre
export PATH=$PATH:$JAVA_HOME/bin
exportCLASSPATH=.:$JAVA_HOME/lib:/dt.jar:$JAVA_HOME/lib/tools.jar
exportLD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64:$JAVA_HOME/jre/lib/amd64/server
source /etc/profile
java -version
scp -r /usr/local/jdk1.8.0_131/root@centos8-1:/usr/local/
scp /etc/profile root@centos8-1:/etc/
source /etc/profile
mkdir /home/hadoop/
tar zxf hadoop-3.3.1.tar.gz
mkdir /home/hadoop/tmp -p
mkdir /home/hadoop/dfs/data -p
mkdir /home/hadoop/dfs/name -p
exportHADOOP_HOME=/home/hadoop/hadoop-3.3.1
exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
cd /home/hadoop/hadoop-3.3.1/etc/hadoop
vim hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_131
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_DATANODE_SECURE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HADOOP_SHELL_EXECNAME=root
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://centos8-0:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.name.dir</name>
<value>/home/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>centos8-1:9000</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
centos8-0
centos8-1
scp -r /home/hadoop root@centos8-1:/home/
scp /etc/profile root@centos8-1:/etc/
source /etc/profile
hdfs namenode -format
start-dfs.sh
C:\Windows\System32\drivers\etc\hosts
192.168.207.164 centos8-0
192.168.207.165 centos8-1
hadoop fs -ls /
hadoop fs -mkdir /mytest
hadoop fs -copyFromLocal test.txt/test.txt
hadoop fs -appendToFile test.txt/test.txt
hadoop fs -cat /test.txt
点击阅读原文
推荐阅读
KunlunBase架构介绍
KunlunBase技术优势介绍
KunlunBase技术特点介绍
KunlunBase集群基本概念介绍
END
昆仑数据库是一个HTAP NewSQL分布式数据库管理系统,可以满足用户对海量关系数据的存储管理和利用的全方位需求。
应用开发者和DBA的使用昆仑数据库的体验与单机MySQL和单机PostgreSQL几乎完全相同,因为首先昆仑数据库支持PostgreSQL和MySQL双协议,支持标准SQL:2011的 DML 语法和功能以及PostgreSQL和MySQL对标准 SQL的扩展。同时,昆仑数据库集群支持水平弹性扩容,数据自动拆分,分布式事务处理和分布式查询处理,健壮的容错容灾能力,完善直观的监测分析告警能力,集群数据备份和恢复等 常用的DBA 数据管理和操作。所有这些功能无需任何应用系统侧的编码工作,也无需DBA人工介入,不停服不影响业务正常运行。
昆仑数据库具备全面的OLAP 数据分析能力,通过了TPC-H和TPC-DS标准测试集,可以实时分析新的业务数据,帮助用户发掘出数据的价值。昆仑数据库支持公有云和私有云环境的部署,可以与docker,k8s等云基础设施无缝协作,可以轻松搭建云数据库服务。
请访问 http://www.kunlunbase.com/ 获取更多信息并且下载昆仑数据库软件、文档和资料。
KunlunBase项目已开源
【GitHub:】
https://github.com/zettadb
【Gitee:】
https://gitee.com/zettadb
相关文章