CDH中spark-shell報錯: Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream


CDH5.8中使用spark-shell時報錯:

image


原因是CDH版的Spark從1.4版本以后,Spark編譯時都沒有將hadoop的classpath編譯進去,所以必須在spark-env.sh中指定hadoop中的所有jar包。


設置,所有節點都要改:

在spark-env.sh中添加一條配置信息,將hadoop的classpath引入, ${HADOOP_HOME}根據自己的情況而定,直接寫絕對路徑也行;

export export SPARK_DIST_CLASSPATH=$(${HADOOP_HOME}/bin/hadoop classpath)


我的設置完就可以了;


如果還報錯,可以去查看日志,看具體原因; 集群中安裝好scala;


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM