Spark新手入門——1.Scala環境准備


歡迎大家關注我的公眾號,“互聯網西門二少”,我將繼續輸出我的技術干貨~

主要包括以下三部分,本文為第一部分:
一. Scala環境准備
二. Hadoop集群(偽分布模式)安裝 查看
三. Spark集群(standalone模式)安裝 查看

因Spark任務大多由Scala編寫,因此,首先需要准備Scala環境。
注:樓主實驗環境為mac os

Scala環境准備

  1. 下載JDK1.8並安裝、配置環境變量(JAVA_HOME),建議使用1.8,與時俱進;

  2. 下載scala-sdk並解壓到某個路徑(如:~/tools/scala-2.12.6),為方便使用還可以設置一下SCALA_HOME,在終端輸入~/tools/scala-2.12.6/bin/scala(未設置SCALA_HOME)或scala(前提設置了SCALA_HOME)可以驗證scala的版本或進行交互實驗(scala官網推薦的圖書《Programming in Scala, 3rd ed》中的實例均為在此模式下運行,故學習scala階段到這一步就夠了)
    圖1.1 scala sdk驗證

  3. 下載IntelliJ IDEA(Ultimate"版即為免費版本)並安裝,安裝后安裝Scala插件(plugin),如下圖所示;
    打開plugin菜單:
    圖1.2 打開plugin菜單

搜索並安裝scala插件
圖1.3 搜索並安裝scala插件

  1. 寫個小程序測試一下吧
    選擇“Create New Project”
    圖1.4 create new project

選擇項目類型為“Scala”
圖1.5 選擇project類型

默認沒有Scala SDK,通過以下方式添加:Create->Browse...
圖1.6 create scala sdk

找到SCALA_HOME
圖1.7 選擇scala sdk path

完成配置
圖1.8 完成配置

為方便開發,將項目轉換為maven項目以解決繁瑣的依賴包問題,項目名右鍵-->Add Framework Support...
圖1.9 轉換為maven project

選擇maven
圖1.10 選擇maven library

項目會自動引入pom.xml,變為scala maven project,並在src下創建source root(可以在package上右鍵更改)
圖1.11 scala項目轉換為maven項目后結構

source root(該項目中為main.java)上右鍵-->New-->Scala Class
圖1.12 創建測試類

選擇類型為Object,用以創建main函數
圖1.13 選擇類型為Object

編寫測試代碼
圖1.14 測試代碼

在代碼空白處或項目名處右鍵-->Run 'ScalaTest'測試代碼
圖1.15 運行

雖然引入了pom.xml,默認卻不會自動import依賴包,出現提示選擇“Auto-Import”
圖1.16 自動import依賴

測試結果
圖1.17 測試結果

之所以這一步這么詳細是因為我發現創建項目的時候選擇哪種project類型會很糾結,也沒有官方標准,經過實驗,推崇先創建scala project再轉換為maven project;如果創建的時候選擇了maven project,通過“Add Framework Support...”再引入Scala SDK也是可以的,最終效果和圖中給出的差不多,但是目錄結構會有差異。

注1:SCALA_HOME、JAVA_HOME在mac下設置方式:
~/.bash_profile中添加如下指令:

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_161.jdk/Contents/Home
export SCALA_HOME=/Users/<你的名字>/tools/scala-2.12.6
export PATH=$JAVA_HOME/bin:$SCALA_HOME/bin:$PATH

參考文檔:官方文檔


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM