Databricks 第4篇:pyspark.sql 分組統計和窗口


對數據分析時,通常需要對數據進行分組,並對每個分組進行聚合運算。在一定意義上,窗口也是一種分組統計的方法。

分組數據

DataFrame.groupBy()回的是GroupedData類,可以對分組數據應用聚合函數、apply()函數和pivot()函數。

常用的聚合函數是:

  • count():統計數量
  • mean(*cols), avg(*cols):計算均值
  • max(*cols),min(*cols):計算最大值和最小值
  • sum(*cols):計算累加和

舉個例子,對DataFrame計算最大的age和height列的值:

df.groupBy().max('age', 'height').collect() 

一,聚合函數

對於聚合函數,還可以使用pandas中的函數,這需要使用GroupedData類的agg(*exprs)函數,該函數的作用是計算聚合值,並返回DataFrame對象。

可以用於agg()函數中的聚合函數主要分為兩類:

  • 內置的聚合函數:avg, max, min, sum, count
  • 分組聚合的pandas UDF:pyspark.sql.functions.pandas_udf()

對於內置的聚合函數,可以通過pyspark.sql.functions來導入:

gdf = df.groupBy(df.name)
from pyspark.sql import functions as F
sorted(gdf.agg(F.min(df.age)).collect())
#[Row(name='Alice', min(age)=2), Row(name='Bob', min(age)=5)]

這里重點介紹如何創建一個pandas UDF,Pandas UDF由Spark使用Arrow來傳輸數據,並通過Pandas對數據進行矢量化操作。在創建Pandas UDF時,需要通過pandas_udf作為修飾器或包裝函數。

pyspark.sql.functions.pandas_udf(f=None, returnType=None, functionType=None)

參數注釋:

  • f:UDF
  • returnType:UDF的返回值類型
  • functionType:一個枚舉值,它的枚舉類型是:pyspark.sql.functions.PandasUDFType,默認值是SCALAR,返回標量值。

舉個例子,創建一個UDF,統計字符的個數。

在修飾器中定義函數的返回值類型是int,參數的模式是接收一個序列,返回一個序列,序列中的元素的數據類型是由修飾器決定的。

import pandas as pd
from pyspark.sql.functions import pandas_udf

@pandas_udf(IntegerType())
def slen(s: pd.Series) -> pd.Series:
    return s.str.len()

在定義函數時,顯式指定輸入參數的類型是MyType,函數返回值的類型是str:

# 輸入參數類型提示為MyType,函數返回類型提示為str
def foo(name: MyType) -> str: 
    return str(name)

二,用戶自定義的pandas函數

pyspark共支持5種UDF的模式,分別表示從形參到返回值的模式

模式1:從DataFrame到DataFrame

@pandas_udf("col1 string, col2 long")
def func(s1: pd.Series, s2: pd.Series, s3: pd.DataFrame) -> pd.DataFrame:
    s3['col2'] = s1 + s2.str.len()
    return s3

模式2:從Series到Series

@pandas_udf("string")
def to_upper(s: pd.Series) -> pd.Series:
    return s.str.upper()

模式3:從Series到Scalar,這種模式就是聚合函數,把多個值按照公式轉換為標量值。

@pandas_udf("double")
def mean_udf(v: pd.Series) -> float:
    return v.mean()

模式4:Iterator[pandas.Series] -> Iterator[pandas.Series]

from typing import Iterator
@pandas_udf("long")
def plus_one(iterator: Iterator[pd.Series]) -> Iterator[pd.Series]:
    for s in iterator:
        yield s + 1

df = spark.createDataFrame(pd.DataFrame([1, 2, 3], columns=["v"]))
df.select(plus_one(df.v)).show()
+-----------+
|plus_one(v)|
+-----------+
|          2|
|          3|
|          4|
+-----------+

模式5:Iterator[Tuple[pandas.Series, …]] -> Iterator[pandas.Series]

from typing import Iterator, Tuple
from pyspark.sql.functions import struct, col
@pandas_udf("long")
def multiply(iterator: Iterator[Tuple[pd.Series, pd.DataFrame]]) -> Iterator[pd.Series]:
    for s1, df in iterator:
        yield s1 * df.v

df = spark.createDataFrame(pd.DataFrame([1, 2, 3], columns=["v"]))
df.withColumn('output', multiply(col("v"), struct(col("v")))).show()
+---+------+
|  v|output|
+---+------+
|  1|     1|
|  2|     4|
|  3|     9|
+---+------+

三,apply(udf)函數和applyInPandas(func, schema)

apply()和applyInPandas()函數的作用是:對每個分組應用函數,計算每個分組的聚合值。

apply(udf)函數使用 pyspark.sql.functions.pandas_udf() 作為參數,applyInPandas(func, schema)函數使用python 原生函數作為參數。

例如,apply()函數使用pandas_udf作為參數:

from pyspark.sql.functions import pandas_udf, PandasUDFType
df = spark.createDataFrame(
    [(1, 1.0), (1, 2.0), (2, 3.0), (2, 5.0), (2, 10.0)],
    ("id", "v"))
@pandas_udf("id long, v double", PandasUDFType.GROUPED_MAP)  
def normalize(pdf):
    v = pdf.v
    return pdf.assign(v=(v - v.mean()) / v.std())
df.groupby("id").apply(normalize).show()  
+---+-------------------+
| id|                  v|
+---+-------------------+
|  1|-0.7071067811865475|
|  1| 0.7071067811865475|
|  2|-0.8320502943378437|
|  2|-0.2773500981126146|
|  2| 1.1094003924504583|
+---+-------------------+

例如,applyInPandas()使用python 原生的函數作為參數:

import pandas as pd  
from pyspark.sql.functions import pandas_udf, ceil
df = spark.createDataFrame(
    [(1, 1.0), (1, 2.0), (2, 3.0), (2, 5.0), (2, 10.0)],
    ("id", "v"))  
def normalize(pdf):
    v = pdf.v
    return pdf.assign(v=(v - v.mean()) / v.std())
df.groupby("id").applyInPandas(
    normalize, schema="id long, v double").show()  
+---+-------------------+
| id|                  v|
+---+-------------------+
|  1|-0.7071067811865475|
|  1| 0.7071067811865475|
|  2|-0.8320502943378437|
|  2|-0.2773500981126146|
|  2| 1.1094003924504583|
+---+-------------------+

四,pivot()函數

從當前的DataFrame種透視一列,並執行指定的聚合操作。

pivot(pivot_col, values=None)

參數注釋:

  • pivot_col:指定用於透視的列
  • values:被旋轉為列的值列表,該參數如果為None,表示旋轉列的所有值。

舉個例子,按照year進行分組,把course列種的值透視為列,並計算earnings列的累加值:

df4.groupBy("year").pivot("course", ["dotNET", "Java"]).sum("earnings").collect()
#[Row(year=2012, dotNET=15000, Java=20000), Row(year=2013, dotNET=48000, Java=30000)]

df4.groupBy("year").pivot("course").sum("earnings").collect()
#[Row(year=2012, Java=20000, dotNET=15000), Row(year=2013, Java=30000, dotNET=48000)]

窗口函數

用於定義DataFrame的窗口,並對窗口進行計算。在進行窗口移動值,窗口的當前行(currentRow)的位置是0,如果position小於0,表示在當前行之前,如果position大於0,表示在當前行之后。

Window的位置屬性:

  • Window.unboundedPreceding:窗口的第一行
  • Window.unboundedFollowing:窗口的最后一行
  • Window.currentRow:窗口的當前行

通過窗口函數來創建窗口:

  • partitionBy(*cols):分區
  • orderBy(*cols):排序
  • rangeBetween(start, end):start和end是相對於current row的位置,
  • rowsBetween(start, end):start和end是相對於current row的位置,

舉個例子,利用這四個函數來創建窗口:

# ORDER BY date ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
window = Window.orderBy("date").rowsBetween(Window.unboundedPreceding, Window.currentRow)

# PARTITION BY country ORDER BY date RANGE BETWEEN 3 PRECEDING AND 3 FOLLOWING
window = Window.orderBy("date").partitionBy("country").rangeBetween(-3, 3)

 

 

 

參考文檔:

pyspark.sql module


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM