CDH5.8中使用spark-shell時報錯:
原因是CDH版的Spark從1.4版本以后,Spark編譯時都沒有將hadoop的classpath編譯進去,所以必須在spark-env.sh中指定hadoop中的所有jar包。
設置,所有節點都要改:
在spark-env.sh中添加一條配置信息,將hadoop的classpath引入, ${HADOOP_HOME}根據自己的情況而定,直接寫絕對路徑也行;
export export SPARK_DIST_CLASSPATH=$(${HADOOP_HOME}/bin/hadoop classpath)
我的設置完就可以了;
如果還報錯,可以去查看日志,看具體原因; 集群中安裝好scala;