pyspark 通過list 構建rdd


from pyspark import SparkContext ,SparkConf

conf=SparkConf().setAppName("miniProject").setMaster("local[4]")
#conf=SparkConf().setAppName("lg").setMaster("spark://192.168.10.182:7077")
sc = SparkContext(conf=conf)

#b=sc.parallelize([0, 2, 3, 4, 6], 5).glom().collect()

data = list(range(10**4))
distData = sc.parallelize(data)
打印rdd
print(distData.collect())

reduce=distData.reduce(lambda a, b: a + b)

print(reduce)


#rdd = sc.parallelize(range(1, 4)).map(lambda x: (x, "a" * x))
#
##rdd.saveAsSequenceFile("path/to/file")
#
#print(sorted(sc.sequenceFile("path/to/file").collect()))
sc.stop()


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM