偽 分布模式下啟動spark報錯
從spark1.4以后,所有spark的編譯都是沒有將hadoop的classpath編譯進去的,所以必須在spark-env.sh中指定hadoop中的所有jar包。
具體設置如下:
在spark/conf文件下spark-evn.sh中添加
這里實際上就是執行一條hadoop的命令,將hadoop的classpath引一下
export export SPARK_DIST_CLASSPATH=$(${HADOOP_HOME}/bin/hadoop classpath)