spark跑Python脚本时指定python版本


在spark上跑python脚本,需要指定python版本时,有如下做法:

方法一:

在环境变量文件 /etc/profile 中添加指定的pyspark,python的版本

export PYSPARK_PYTHON=指定的python路径
 export PYSPARK_DRIVER_PYTHON=指定的python路径

保存后source一下 /etc/profile ,使之生效

方法二:

在spark-submit时增加参数 --conf spark.pyspark.python 和 --conf spark.pyspark.driver.python 

spark-submit \
--driver-memory 5g --num-executors 5 --executor-cores 1 --executor-memory 1G  
--conf spark.pyspark.python=./.../bin/python --conf spark.pyspark.driver.python=./.../bin/python xx.py 

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM