class not found 的幾種可能(failed to launch org.apache.spark.deploy.master.Master)


1. 常見的class not found 就是class path路徑下找不到對應的class 文件。

2. jdk 版本不對

下面看一個樓主遇到的具體案例:

把對應spark 啟動shell 腳本最重執行的命令打印出來
java -cp /home/hadoop/spark-1.5.1-bin-hadoop1/lib/spark-assembly-1.5.1-hadoop1.2.1.jar org.apache.spark.launcher.Main org.apache.spark.deploy.master.Master --ip hadoop01 --port 7077 --webui-port 8080
接着檢查jar 包否真正卻少這個class:

發現jar 包內包含這個class,結合啟動腳本最重執行的命令來看,不是jar 包沒在class path的問題。
接着看下 具體class對應的jdk版本:

問題很明顯,編譯target jdk版本指定的是1.7 而運行環境jar 版本是1.6,更換jdk即可。

class not found 問題排查思路分享給大家。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM