spark之pycharm开发设置


方法一:

__author__ = 'similarface'
import os
import sys
os.environ['SPARK_HOME']="/Users/similarface/spark-1.6.0-bin-hadoop2.6"
sys.path.append("/Users/similarface/spark-1.6.0-bin-hadoop2.6/python")

try:
    from pyspark import SparkContext,SparkConf
    print("Successfully imported Spark Modules")
except ImportError as e:
    print("Can not import Spark Modules", e)
    sys.exit(1)

#result:

Successfully imported Spark Modules

方法二:

 

 这样设置也是可以的


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM