当前位置: 主页 > 汽车百科 > 本田aux是什么建 本田audioapps使用教程

本田aux是什么建 本田audioapps使用教程

(原标题:本田aux是什么建 本田audioapps使用教程)

Hadoop3已经发布很久了,迭代集成的一些新特性也是很有用的。接下来,笔者先为大家分享一下Hadoop3.2安装笔记

Hadoop大数据分布式存储计算人工智能

准备工作

本次使用虚拟机服务器来搭建开源版Hadoop3集群,所用软件及版本如下所示:

Vmware12.0

Centos7.6

JDK1.8

Hadoop3.2.1

Vmware虚拟环境

采用NAT方式联网

网关地址:192.168.80.1

3个服务器节点IP地址:

mini1192.168.80.81

mini2192.168.80.82

mini3192.168.80.83

子网掩码:255.255.255.0

主机及集群角色规划

mini1NameNodeDataNodeResourceManagerNodeManager

mini2SecondaryNameNodeDataNodeNodeManager

mini3DataNodeNodeManager

具体安装步骤如下:一,linux系统环境准备

以下[1-7]步操作,所有节点【mini1,mini2,mini3】都需要进行设置,具体操作如下:

1,依次更改【mini1,mini2,mini3】主机名:

vi/etc/hostname

2,配置网络

2.1命令:vi/etc/sysconfig/network-scripts/ifcfg-ens33

如下配置:

ONBOOT=yes

BOOTPROTO=static

IPADDR=192.168.80.81

GATEWAY=192.168.80.1

NETMASK=255.255.255.0

DNS1=114.114.114.114

2.2重启网卡命令:systemctlrestartnetwork

2.3配置Ip与主机名映射,命令:vi/etc/hosts

192.168.80.81mini1

192.168.80.82mini2

192.168.80.83mini3

3,关闭防火墙

systemctlstopfirewalld(临时关闭防火墙)

systemctldisablefirewalld(禁止firewall开机启动)

systemctlstatusfirewalld(查看防火墙状态)

4,禁用Selinux(安全权限管理模块)

vi/etc/sysconfig/selinux

SELINUX=disabled

5,设置将/proc/sys/vm/swappiness设置为0(修改swap空间的swappiness,降低对硬盘的缓存)

执行以下输入:

echo"vm.swappiness=0">>/etc/sysctl.conf(永久降低虚拟内存需求率)

sysctl-p(并运行如下命令使生效)

6,修改时区:timedatectlset-timezoneAsia/Shanghai

7,配置免密登录

******配置主机之间的免密ssh登陆******

假如mini1要登陆mini2,mini3

在mini1上操作:

首先生成密钥对,命令如下:

ssh-keygen(提示时,直接回车即可)

将生产的秘钥copy到【mini1,mini2,mini3】上,命令如下

ssh-copy-idmini1

ssh-copy-idmini2

ssh-copy-idmini3

二,集群时间同步

【mini1】作为时间同步服务器,【mini2,mini3】同步【mini1】的时间,具体操作如下:

1,禁用【mini1,mini2,mini3】chrony时间同步服务(centos7操作系统默认使用chrony)

systemctlstopchronyd

systemctldisablechronyd

2,在【mini1,mini2,mini3】上执行命令:yuminstall-yntp安装时间同步服务

3,在Server【mini1】上执行命令:vi/etc/ntp.conf

添加以下内容:

restrict192.168.80.0mask255.255.255.0nomodifynotrap

server127.127.1.0

fudge127.127.1.0stratum10

同时注释掉这几个配置

#server0.centos.pool.ntp.orgiburst

#server1.centos.pool.ntp.orgiburst

#server2.centos.pool.ntp.orgiburst

#server3.centos.pool.ntp.orgiburst

4,在Server【mini1】上执行启动ntpd服务命令

systemctlstartntpd(启动ntpd服务)

systemctlstatusntpd(查看ntpd服务状态)

systemctlenablentpd(将ntpd服务加入开机启动)

systemctllist-unit-files|grepntpd(查看是否将ntpd服务加入到开机启动项)

5,在客户端【mini2,mini3】配置同步:crontab-e

*/1****/usr/sbin/ntpdatemini1;/sbin/hwclock-w

三,安装JDK

1.上传jdk安装包

2.安装目录:/opt/apps/

3.解压jdk到安装目录:tar-zvxfjdk-8u101-linux-x64.tar.gz-C/opt/apps/

4.在安装目录中建立jdk软链接,指向jdk所在目录:ln-sjdk1.8.0_101jdk

5.配置环境变量,编辑vi/etc/profile文件,在最后一行加入以下两行:

exportJAVA_HOME=/opt/apps/jdk

exportPATH=$PATH:$JAVA_HOME/bin

6.修改完成后,执行命令:source/etc/profile使配置生效

7.检验:在任意目录下输入命令:java-version看是否成功执行

8.将安装好的jdk目录用scp命令拷贝到其他机器

9.将/etc/profile配置文件也用scp命令拷贝到其他机器并分别执行source命令

四,安装Hadoop

1.上传Hadoop安装包:hadoop-3.2.1.tar.gz

2.解压安装包:tar-zvxfhadoop-3.2.1.tar.gz-C/opt/apps/

3.在安装目录中建立hadoop软链接,指向hadoop解压目录:ln-shadoop-3.2.1hadoop

4.修改配置文件:cd/opt/apps/hadoop/etc/hadoop

4.1配置hadoop-env.sh文件

exportJAVA_HOME=/opt/apps/jdk

4.2配置core-site.xml文件

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://mini1:9000</value>

</property>

</configuration>

4.3配置hdfs-site.xml文件

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/opt/apps/hadoop/hadoopdata/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/opt/apps/hadoop/hadoopdata/data</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>mini2:50090</value>

</property>

</configuration>

4.4配置mapred-site.xml文件

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

4.5配置yarn-site.xml文件

<configuration>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>mini1</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

4.6配置workers文件

mini1

mini2

mini3

5.拷贝整个hadoop安装目录到其他机器

scp-r/opt/apps/hadoop-3.2.1mini2:/opt/apps/

scp-r/opt/apps/hadoop-3.2.1mini3:/opt/apps/

6.要运行hadoop的命令,需要在linux环境中配置HADOOP_HOME和PATH环境变量

配置Hadoop环境变量:vi/etc/profile

exportJAVA_HOME=/opt/apps/jdk

exportHADOOP_HOME=/opt/apps/hadoop

exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

7.将/etc/profile配置文件也用scp命令拷贝到其他机器并分别执行source命令

五,启动HDFS集群

1.首先初始化namenode的元数据目录。

命令:hdfsnamenode-format(mini1上执行)

创建一个全新的元数据存储目录

生成记录元数据的文件fsimage

生成集群的相关标识:如:集群id——clusterID

2.启动namenode进程

命令:hdfs--daemonstartnamenode(mini1上执行)

4.启动datanode(mini1,mini2,mini3上执行)

命令:hdfs--daemonstartdatanode

5.重要提示:可以在主节点全部启动或停止关于HDFS相关角色(主节点mini1上执行)

将start-dfs.sh,stop-dfs.sh两个文件顶部添加以下参数

#!/usr/bin/envbash

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

全部启动命令:start-dfs.sh全部停止命令:stop-dfs.sh

6.启动后浏览HDFSweb界面:http://mini1:9870/

六,启动YARN集群

1.启动resourcemanager进程(主节点mini1上执行)

命令:yarn--daemonstartresourcemanager

2.启动nodemanager进程(mini1,mini2,mini3上执行)

命令:yarn--daemonstartnodemanager

3.重要提示:可以在主节点全部启动或停止关于HDFS相关角色(主节点mini1上执行):

将start-yarn.sh,stop-yarn.sh两个文件顶部需添加以下:

#!/usr/bin/envbash

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

全部启动命令:start-yarn.sh全部停止命令:stop-yarn.sh

4.启动后浏览YARN集群web界面:http://mini1:8088/

大数据视频教程HadoopSparkHive刀客程序员云计算人工智能

clouderaCDH6.3云计算大数据hadoopsparkhive分布式存储