ModuleNotFoundError: No module named 'pyspark' 解決方案


出現問題的原因是在執行python xxx.py 時系統找不到相關資源

Windows中:

由於我的Windows中沒有裝Spark,所以直接安裝了Python的第三方包,pycharm中直接引用就行了

pip install pyspark

Linux中:

我的是Ubuntu18.04,自己在里面裝了spark。

python是系統自帶的,由於pyspark不在python的環境變量下,將資源的目錄配置到python的環境變量下即可

export PYTHONPATH=${SPARK_HOME}/python:${SPARK_HOME}/python/pyspark.zip:${SPARK_HOME}/python/lib/py4j-0.10.8.1-src.zip:$PYTHONPATH

另外,還可以使用spark-sbumit xxx.py代替python xxx.py執行


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM