在Windows启动pyspark shell:Failed to find Spark jars directory. You need to build Spark before running this program


D:\Develop tools\spark-2.2.0-bin-hadoop2.7\bin>pyspark2.cmd

'tools\spark-2.2.0-bin-hadoop2.7\bin\..\jars""\' 不是内部或外部命令,也不是可运
行的程序
或批处理文件。
Failed to find Spark jars directory.
You need to build Spark before running this program.

 

错误原因:路径中含有空格(D:\Develop tools\spark-2.2.0-bin-hadoop2.7\bin的Develop tools中间有空格)


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM