ModuleNotFoundError: No module named 'pyspark' 解决方案


出现问题的原因是在执行python xxx.py 时系统找不到相关资源

Windows中:

由于我的Windows中没有装Spark,所以直接安装了Python的第三方包,pycharm中直接引用就行了

pip install pyspark

Linux中:

我的是Ubuntu18.04,自己在里面装了spark。

python是系统自带的,由于pyspark不在python的环境变量下,将资源的目录配置到python的环境变量下即可

export PYTHONPATH=${SPARK_HOME}/python:${SPARK_HOME}/python/pyspark.zip:${SPARK_HOME}/python/lib/py4j-0.10.8.1-src.zip:$PYTHONPATH

另外,还可以使用spark-sbumit xxx.py代替python xxx.py执行


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM