1. SparkSql如何自定義函數?
spark中我們定義一個函數,需要繼承 UserDefinedAggregateFunction這個抽象類,實現這個抽象類中所定義的方法,這是一個模板設計模式? 我只要實現抽象類的中方法,具體的所有的計算步驟由內部完成。而我們可以看一下UserDefinedAggregateFunction這個抽象類。
package org.apache.spark.sql.expressions
@org.apache.spark.annotation.InterfaceStability.Stable
abstract class UserDefinedAggregateFunction() extends scala.AnyRef with scala.Serializable { def inputSchema : org.apache.spark.sql.types.StructType def bufferSchema : org.apache.spark.sql.types.StructType def dataType : org.apache.spark.sql.types.DataType def deterministic : scala.Boolean def initialize(buffer : org.apache.spark.sql.expressions.MutableAggregationBuffer) : scala.Unit def update(buffer : org.apache.spark.sql.expressions.MutableAggregationBuffer, input : org.apache.spark.sql.Row) : scala.Unit def merge(buffer1 : org.apache.spark.sql.expressions.MutableAggregationBuffer, buffer2 : org.apache.spark.sql.Row) : scala.Unit def evaluate(buffer : org.apache.spark.sql.Row) : scala.Any @scala.annotation.varargs def apply(exprs : org.apache.spark.sql.Column*) : org.apache.spark.sql.Column = { /* compiled code */ } @scala.annotation.varargs def distinct(exprs : org.apache.spark.sql.Column*) : org.apache.spark.sql.Column = { /* compiled code */ } }
也就是說對於這幾個函數,我們只要依次實現他們的功能,其余的交給spark就可以了。
2. 自定義Average函數
首先新建一個Object類MyAvage類,繼承UserDefinedAggregateFunction。下面對每一個函數的實現進行解釋。
def inputSchema: StructType = StructType(StructField("inputColumn", LongType) :: Nil)
這個規定了輸入數據的數據結構
def bufferSchema: StructType = {
StructType(StructField("sum", LongType) :: StructField("count", LongType) :: Nil)
}
這個規定了緩存區的數據結構
def dataType: DataType = DoubleType
這個規定了返回值的數據類型
def deterministic: Boolean = true
def initialize(buffer: MutableAggregationBuffer): Unit = {
buffer(0) = 0L
buffer(1) = 0L
}
進行初始化,這里要說明一下,官網中提到:
// Initializes the given aggregation buffer. The buffer itself is a `Row` that in addition to
// standard methods like retrieving a value at an index (e.g., get(), getBoolean()), provides // the opportunity to update its values. Note that arrays and maps inside the buffer are still // immutable.
這里翻譯一下:
我們為我們的緩沖區設置初始值,我們不僅可以設置數字,還可以使用index getBoolen等去改變他的值,但是我們需要知道的是,在這個緩沖區中,數組和map依然是不可變的。
其實最后一句我也是不太明白,等我以后如果能研究並理解這句話,再回來補充吧。
def update(buffer: MutableAggregationBuffer, input: Row): Unit = {
if (!input.isNullAt(0)) {
buffer(0) = buffer.getLong(0) + input.getLong(0)
buffer(1) = buffer.getLong(1) + 1
}
}
這個是重要的update函數,對於平均值,我們可以不斷迭代輸入的值進行累加。buffer(0)統計總和,buffer(1)統計長度。
def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {
buffer1(0) = buffer1.getLong(0) + buffer2.getLong(0)
buffer1(1) = buffer1.getLong(1) + buffer2.getLong(1)
}
在做完update后spark 需要將結果進行merge到我們的區域,因此有一個merge 進行覆蓋buffer
def evaluate(buffer: Row): Double = buffer.getLong(0).toDouble / buffer.getLong(1)
這是將最終的結果進行計算。
在寫完這個類以后我們在我們的sparksession里面進行編寫測試案例。
spark.sparkContext.textFile("file:///Users/4pa/Desktop/people.txt")
.map(_.split(","))
.map(agg=>Person(agg(0),agg(1).trim.toInt))
.toDF().createOrReplaceTempView("people")
spark.udf.register("myAverage",Myaverage)
val udfRes = spark.sql("select name,myAverage(age) as avgAge from people group by name")
udfRes.show()
3. 類型安全的自定義函數
從上面我們可以看出來,這種自定義函數不是類型安全的,因此能否實現一個安全的自定義函數呢?
個人覺得最好的例子還是官網給的例子,具體的解釋都已經給了出來,思路其實和上面是一樣的,只不過定義了兩個caseclass,用於類型的驗證。
case class Employee(name: String, salary: Long)
case class Average(var sum: Long, var count: Long)
object MyAverage extends Aggregator[Employee, Average, Double] {
// 初始化
def zero: Average = Average(0L, 0L)
// 這個其實有點map-reduce的意思,只不過是對一個類的reduce,第一個值是和,第二個是總數
def reduce(buffer: Average, employee: Employee): Average = {
buffer.sum += employee.salary
buffer.count += 1
buffer
}
// 實現緩沖區的一個覆蓋
def merge(b1: Average, b2: Average): Average = {
b1.sum += b2.sum
b1.count += b2.count
b1
}
// 計算最終數值
def finish(reduction: Average): Double = reduction.sum.toDouble / reduction.count
// Specifies the Encoder for the intermediate value type
def bufferEncoder: Encoder[Average] = Encoders.product
// 指定返回類型
def outputEncoder: Encoder[Double] = Encoders.scalaDouble
}
