1、通過kudu客戶端創建表
val kuduContext = new KuduContext("kuduMaster:7051",sc)
val sQLContext = new SQLContext(sc)
val kuduTableName = "spark_kudu_table"
val kuduOptions: Map[String, String] = Map(
"kudu.table" -> kuduTableName,
"kudu.master" -> "kuduMaster:7051")
// 檢查要創建的表是否存在,若存在就刪除
if (kuduContext.tableExists(kuduTableName)) {
kuduContext.deleteTable(kuduTableName)
}
// 2. 配置schema
val kuduTableSchema = StructType(
// col name type nullable?主鍵不能為null
StructField("id", IntegerType , false) ::
StructField("age" , IntegerType, true ) ::
StructField("city", StringType , true ) ::
StructField("name", StringType , true ) :: Nil)
// 3. 指定主鍵
val kuduPrimaryKey = Seq("id")
// 4. 指定分區鍵以及副本數
val kuduTableOptions = new CreateTableOptions()
kuduTableOptions.
setRangePartitionColumns(List("id").asJava).
setNumReplicas(3)
// 5. 通過api建表
kuduContext.createTable(
// Table name, schema, primary key and options
kuduTableName, kuduTableSchema, kuduPrimaryKey, kuduTableOptions)
運行程序后再kudu的ui界面上就可以看見創建的表了,如圖:瀏覽器訪問你的kudumaster:8051
2、插入數據
//參數解釋:frame:將要插入的數據轉為dataframe ,kuduTableName:表名
kuduContext.insertRows(frame,kuduTableName)
或
df.write.options(Map("kudu.master"-> "kuduMaster:7051",
"kudu.table"-> kuduTable)).mode("append").kudu
3、刪除數據
//刪除表
kuduContext.deleteTable(kuduTableName)
//刪除數據:將要刪除的數據查詢出來作為參數傳入
kuduContext.updateRows(frame,kuduTable)
4、更新
//通過sql更新數據后調用api批量更新
val dataFrame = sQLContext.sql("select Name,city,AGE+3 as AGE from kudu_tem")
kuduContext.updateRows(dataFrame,kuduTable)
5、查
val kuduOptions: Map[String, String] = Map(
"kudu.table" -> kuduTable,
"kudu.master" -> "kuduMaster:7051")
val reader: DataFrame = sQLContext.read.options(kuduOptions).kudu
通過spark創建的表與impala創建的表有一定的區別。通過impala創建的表是不區分大小寫的,impala會自動轉為小寫,而通過spark創建的表是區分大小寫的。所以通過不同的途徑操作kudu表時,要注意這一點。