在虚拟机Ubuntu18.04系统中安装hadoop-2.7.3的过程(面向纯新手)


记录一次hadoop安装过程

虚拟机的配置

首先我们需要先装好一个虚拟机,我这使用的是Ubuntu18.04版本,安装好后是英文界面,可以按照以下方法更换为中文界面
首先我们需要下载jdk
打开火狐,切换成百度,搜索jdk,进入官网下载
我们下载这个版本
 
 
2.接下来下载hadoop2.7.3版本(其余版本同样,这里使用2.7.3版本进行演示)
选择这个
 
 
 
点击下载,下载完成后可以在下载文档中查看到这两个包
 
接下来 我们进行配置,首先我们先下载一个vim编辑器(好用而已,别的能用也行)
右击打开终端(如下图所示)
 
sudo apt-get install vim

 

然后系统会自动安装好vim
 

 一、java环境变量配置

1.将下载好的 jdk包解压缩到一个自己创建的文件夹中(像这样)
(首先我在主目录创建usr>java>jdk1.8.0_261)
 
2.使用如下命令
sudo vim /etc/profile

  

打开文件后按 i 键进入插入模式
来到最后一行添加以下代码
推荐使用绝对路径(我这相对路径报错 路径可在jdk文件属性中查看)
export JAVA_HOME=/home/master/usr/java/jdk1.8.0_261 
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
添加完毕后按esc进入命令模式 按:wq 回车(文件保存并退出)
然后执行如下代码
source /etc/profile
 
查看java是否安装成功
java -version

  

 
 

二、配置ssh免密登录

一般来说新配置的虚拟机没有安装ssh
# 查看ssh安装包情况     dpkg -l | grep ssh
# 查看是否启动ssh服务    ps -e | grep ssh
如果没有安装的话执行如下命令
sudo apt-get install openssh-server
安装完成后
ssh -keygen -t rsa

 

按两到三次回车直到显示$可以输命令了
然后输入如下命令
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

 

配置成功 以后就可以免密码登录
 

三、配置hadoop

首先将hadoop压缩包解压至自己想放入的文件夹
usr>hadoop (此处我修改了文件名称 去掉了后面的版本号)
 
进入usr文件打开终端 授予权限
sudo chown -R master ./hadoop 

 

打开配置文件
sudo vim /etc/profile

 

添加如下代码(相当于覆盖之前java环境配置)
export JAVA_HOME=/home/master/usr/java/jdk1.8.0_261 
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH
export HADOOP_HOME=/home/master/usr/hadoop

 

然后:wq 保存退出
source /etc/profile

  

测试
hadoop version

  

如下图所示
 

四、伪分布式配置

在hadoop>etc>hadoop中找到 core-site.xml 和 hdfs-site.xml 和 hadoop-env.sh 三个文件
找到后直接双击打开(以下代码中的路径请按照自己路径进行修改 其中 tmp文件夹没有没关系按代码复制上去)
在core-site.xml中插入如下代码
<configuration> 
  <property>
      <name>hadoop.tmp.dir</name>
      <value>file:/home/master/usr/hadoop/tmp</value>
     <description>Abase for other temporary directories.</description>
  </property>
  <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
   </property>
</configuration>

  

在 hdfs-site.xml 中插入如下代码
<configuration>
    <property>
        <name>dfs.replication</name>
   <value>1</value> 
    </property> 
    <property> 
        <name>dfs.namenode.name.dir</name>
         <value>file:/home/master/usr/hadoop/tmp/dfs/name</value>
     </property> 
   <property> 
    <name>dfs.datanode.data.dir</name> 
    <value>file:/home/master/usr/hadoop/tmp/dfs/data</value>
   </property> 
</configuration>            

  

在 hadoop-env.sh 中修改 JAVA_HOME的路径
像这样 修改为自己路径
 
保存退出
最后
配置完成后在 /home/master/usr/hadoop (注意是自己的hadoop目录) 下使用以下命令 执行format命令,格式化名称节点
./bin/hdfs namenode -format

  

如果成功会在后面看见 has been successfully formatted 字样
开启hdfs: /home/master/usr/hadoop (注意是自己的hadoop目录)
./sbin/start-dfs.sh 

 

输入 jps 查看 如果 datanode和namenode出现表示成功
 
在浏览器中输入http://localhost:50070 查看 如下 则成功
 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM