一、先在本地安裝jdk
我這里安裝的jdk1.8,具體的安裝過程這里不作贅述
二、部署安裝maven
下載maven安裝包,並解壓
設置環境變量,MAVEN_HOME=D:\SoftWare\Maven\apache-maven-3.6.1
在path路徑添加;%MAVEN_HOME%\bin
打開本地終端驗證
三、安裝hadoop
先下載hadoop壓縮包 下載地址:https://archive.apache.org/dist/hadoop/common/hadoop-2.6.0/
下載后解壓到本地
配置環境變量
計算機 –>屬性 –>高級系統設置 –>高級選項卡 –>環境變量 –> 單擊新建HADOOP_HOME
HADOOP_HOME=D:\SoftWare\hadoop-2.6.0
Path環境變量下配置【%HADOOP_HOME%\bin;】變量
打開終端驗證一下hadoop是否安裝成功
給hadoop添加插件,添加到hadoop/bin目錄下
修改hadoop的配置文件,配置文件在路徑D:\SoftWare\hadoop-2.6.0\etc\hadoop下
修改core-site.xml
<configuration> <!--指定namenode的地址--> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <!--用來指定hadoop產生臨時文件的目錄--> <property> <name>hadoop.tmp.dir</name> <value>/D:/SoftWare/hadoop-2.6.0/tmp/</value> </property> <!--用於設置檢查點備份日志的最長時間--> <property> <name>fs.checkpoint.period</name> <value>3600</value> </property> </configuration>
修改hdfs-site.xml
<configuration> <!--指定hdfs保存數據的副本數--> <property> <name>dfs.replication</name> <value>2</value> </property> <!--指定hdfs中namenode的存儲位置--> <property> <name>dfs.namenode.name.dir</name> <value>/D:/SoftWare/hadoop-2.6.0/tmp/dfs/namenode</value> </property> <!--指定hdfs中datanode的存儲位置--> <property> <name>dfs.datanode.data.dir</name> <value>/D:/SoftWare/hadoop-2.6.0/tmp/dfs/datanode</value> </property> </configuration>
修改mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
修改yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <!--nodemanager獲取數據的方式是shuffle--> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> </configuration>
格式化系統文件
hadoop/bin下執行 hdfs namenode -format
格式化完畢后啟動hadoop,到hadoop/sbin下執行 start-dfs啟動hadoop
這個時候會自動打開另外兩個終端窗口,日志沒有報錯就行了,
打開瀏覽器訪問 http://localhost:50070
啟動yarn
打開瀏覽器訪問 http://localhost:8088
在hdfs創建文件夾
把本地的文本文件上傳到hdfs
然后運行hadoop 提供的demo,計算單詞數
四、安裝scala
下載scala的安裝包到本地
雙擊
選擇安裝的路徑
配置scala的環境變量
設置 Path 變量:找到系統變量下的"Path"如圖,單擊編輯。在"變量值"一欄的最前面添加如下的路徑: %SCALA_HOME%\bin;%SCALA_HOME%\jre\bin;
設置 Classpath 變量:找到找到系統變量下的"Classpath"如圖,單擊編輯,如沒有,則單擊"新建":
- "變量名":ClassPath
- "變量值":.;%SCALA_HOME%\bin;%SCALA_HOME%\lib\dt.jar;%SCALA_HOME%\lib\tools.jar.;
檢查環境變量是否設置好了:調出"cmd"檢查。單擊 【開始】,在輸入框中輸入cmd,然后"回車",輸入 scala,然后回車,如環境變量設置ok,你應該能看到這些信息
五、安裝spark
下載安裝包
解壓到需要安裝的路徑下
配置spark的環境變量
將spark的bin路徑添加到path中
cmd輸入spark-shell
spark已經安裝成功了!
六、在IDEA添加scala插件