pyspark 通過 json 字符串 創建DataFrame


1、開發環境

python版本:3.6

spark版本:2.3.1

pyspark:2.3.1

2、腳本

from pyspark import SparkConf,SparkContext
from pyspark.sql import SQLContext,HiveContext
from pyspark.sql.types import *

####1、從json文件讀取數據,並直接生成DataFrame#######
path = "20180724141719.json"
df = sqlContext.read.json(path)
df.printSchema()
####################################
data_dict = { "region": "cn", "env": "dev", "product": "snap" } schema = StructType([ StructField("region", StringType(), True), StructField("env", StringType(), True), StructField("product", StringType(), True)]) dslist = [] ## 空列表 dslist.append(data_dict) ## 使用 append() 添加元素
###2、通過json字符串生成DataFrame#############
myrdd = sc.parallelize(dslist) df = sqlContext.read.json(myrdd) df.printSchema() ####3、通過自定義schema和json字符串列表,生成DataFrame#######
df = sqlContext.createDataFrame(dslist,schema)
df.printSchema()
########################################################




免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM