在Windows啟動pyspark shell:Failed to find Spark jars directory. You need to build Spark before running this program


D:\Develop tools\spark-2.2.0-bin-hadoop2.7\bin>pyspark2.cmd

'tools\spark-2.2.0-bin-hadoop2.7\bin\..\jars""\' 不是內部或外部命令,也不是可運
行的程序
或批處理文件。
Failed to find Spark jars directory.
You need to build Spark before running this program.

 

錯誤原因:路徑中含有空格(D:\Develop tools\spark-2.2.0-bin-hadoop2.7\bin的Develop tools中間有空格)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM