不多說,直接上干貨!
問題詳情
以下是我,maven構建出來的最新spark2.2.0-bin-hadoop2.6的項目。
有些依賴包,maven還是無法一次性滿足,所以,得手動加入lib的jar包。
其實,這原理很簡單,跟hadoop項目是一樣的。無非說maven構建項目方便下載jar包,但是也不是萬能一次性全部到位和滿足需要的。
假設,大家,還需要導入
導入spark的jar包:是安裝主目錄下的jars所有jar包和examples/jars包。
點擊project structure 按鈕
以下是默認的
按照以下順序來
注意:只需選中jars目錄即可
得到
然后
得到
然后,apply即可
如果是下面的這樣,會出現錯誤,IDEA里的jar包被導入被鎖住,即沒有生效。說明這樣的導入方式是錯誤的。
但是,細心的博友們,知道,這導入進去,是被鎖住的。其實,壓根就沒有被鎖住之說,是只讀而已啦。
成功!