Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream


偽 分布模式下啟動spark報錯

 

 

從spark1.4以后,所有spark的編譯都是沒有將hadoop的classpath編譯進去的,所以必須在spark-env.sh中指定hadoop中的所有jar包。

具體設置如下:

在spark/conf文件下spark-evn.sh中添加

這里實際上就是執行一條hadoop的命令,將hadoop的classpath引一下
export export SPARK_DIST_CLASSPATH=$(${HADOOP_HOME}/bin/hadoop classpath)

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM