Hadoop項目實戰-用戶行為分析之編碼實踐


1.概述

  本課程的視頻教程地址:《用戶行為分析之編碼實踐

  本課程以用戶行為分析案例為基礎,帶着大家去完成對各個KPI的編碼工作,以及應用調度工作,讓大家通過本課程掌握Hadoop項目的編碼、調度流程。下面我們來看看本課程有哪些課時,如下圖所示:

  首先,我們來學習第一課時:《Hadoop項目基礎代碼》。

2.內容

2.1 Hadoop項目基礎代碼

  本課時介紹編寫Hadoop基礎代碼及腳本,在前面搭建好的Hadoop項目工程上, 完成項目的基本代碼的編寫,以及一些注意事項,為編寫核心代碼做准備,讓大家掌握Hadoop項目的基礎代碼開發。

  本課時主要包含以下知識點,如下圖所示:

  下面,我為大家介紹Hadoop項目工程的基本信息配置,由於本課程屬於編碼實踐,所以設計到編碼的相關流程。 所以大家在學習的時候,請事先將集群啟動,IDE打開。下面我給大家演示如下內容,他們分別是:

  • 項目工程的相關配置信息(pom文件的依賴配置,log日志信息的配置)
  • 集群信息的相關配置(連接集群節點路徑信息) 

  基礎代碼實現包含的內容,如下圖所示:

  具體演示細節,大家可以觀看視頻,這里我就不多做贅述了。《觀看地址

2.2 Hadoop項目核心地址實現

  本課時介紹如何去實現Hadoop的核心代碼模塊, 在基礎代碼模塊上,完成核心代碼的實現,讓大家掌握項目相關指標的統計開發。

  下面我們來看看本課時有那些知識點,如下圖所示:

  下面我們來看看離線結果統計的處理方式有哪些,這里,我用一個圖來說明,在離線統計中的統計方式,如下圖所示:

  這里,從圖中我們可以看出,我們可以使用編寫Hive腳本或Hive應用程序來統計, 也可以編寫MapReduce程序來完成統計,也可以組合使用,這里,本課程的案例, 我使用的是組合使用,用Hive和MapReduce組合來完成。

  接着來看核心代碼實現的內容,如下圖所示:

  腳本如下所示:

#創建分區
CREATE EXTERNAL TABLE ubas(ip string, timespan string, url string,hour string)PARTITIONED BY (logdate string) 
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LOCATION '/home/hdfs/ubas/out/meta'

  統計的KPI腳本,如下所示:

# clean hdfs data and output 
/home/hadoop/hadoop-2.6.0/bin/hadoop jar ubas-1.0.0-jar-with-dependencies.jar $1

# use hive to stats

## 1.location data to partition
/home/hadoop/hive-0.14.0-bin/bin/hive -e "ALTER TABLE ubas ADD PARTITION(logdate='$1') LOCATION '/home/hdfs/ubas/out/meta/$1';"

## 2.stats pv
/home/hadoop/hive-0.14.0-bin/bin/hive -e "CREATE TABLE pv_$1 AS SELECT COUNT(1) AS PV FROM ubas WHERE logdate='$1';"

## 3.stats ip
/home/hadoop/hive-0.14.0-bin/bin/hive -e "CREATE TABLE ip_$1 AS SELECT COUNT(DISTINCT ip) AS IP FROM ubas WHERE logdate='$1';"

## 4.stats amount hour
/home/hadoop/hive-0.14.0-bin/bin/hive -e "CREATE TABLE amount_$1 ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' AS SELECT '$1',hour AS HOUR_TAG, COUNT(hour) AS HOUR,'' AS UPDATE_DATE FROM ubas WHERE logdate='$1' GROUP BY hour;"

## 5.stats jr
/home/hadoop/hive-0.14.0-bin/bin/hive -e "CREATE TABLE jr_$1 AS SELECT COUNT(1) AS JR FROM (SELECT COUNT(ip) AS times FROM ubas WHERE logdate='$1' GROUP BY ip HAVING times=1) e;"

## 6.combine pv,ip,jr and tr to ubas table
/home/hadoop/hive-0.14.0-bin/bin/hive -e "CREATE TABLE ubas_$1 ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' AS SELECT '$1', a.pv, b.ip, c.jr, ROUND(COALESCE(CAST(b.ip AS DOUBLE), 0)/a.pv, 2),'' AS UPDATE_DATE FROM pv_$1 a JOIN ip_$1 b ON 1=1 JOIN jr_$1 c ON 1=1 ;"

# sqoop data to mysql

## 1.sqoop t_kpi_day
/home/hadoop/sqoop-1.4.5/bin/sqoop export -D sqoop.export.records.per.statement=100 --connect jdbc:mysql://10.211.55.26:3306/hadoop_ubas --username root --password root --table t_kpi_day --fields-terminated-by ',' --export-dir "/home/hive/warehouse/ubas_$1" --batch --update-key createdate --update-mode allowinsert;

## 2.sqoop t_kpi_hour
/home/hadoop/sqoop-1.4.5/bin/sqoop export -D sqoop.export.records.per.statement=100 --connect jdbc:mysql://10.211.55.26:3306/hadoop_ubas --username root --password root --table t_kpi_hour --fields-terminated-by ',' --export-dir "/home/hive/warehouse/amount_$1" --batch --update-key createdate,kpi_code --update-mode allowinsert;

# drop tmp table to hive warehouse
/home/hadoop/hive-0.14.0-bin/bin/hive -e "drop table amount_$1;drop table ip_$1;drop table jr_$1;drop table pv_$1;drop table ubas_$1;"

2.3 統計結果處理

  本課時介紹將統計好的數據導出到關系型數據庫,以及對外提供數據共享接口,讓大家掌握導出數據的流程及共享接口程序的編寫。

   本課時主要有一下知識點,如下圖所示:

  下面我們來看看使用 Sqoop 如何將 HDFS 上的統計結果導出到 MySQL 數據庫, 接下來,我們來看看 Sqoop 的導出流程,如下圖所示:

  首先,我們是將統計結果存放在 HDFS 集群上,然后我們使用 Sqoop 工具去將 HDFS 的數據導出到關系型數據庫,如 MySQL 整個基本流程就是這樣。下面我們來使用 Sqoop 工具對HDFS 上的數據進行導出,同樣,在使用導出功能時,這樣大家需要 安裝 Sqoop 工具,Sqoop 的安裝較為簡單,大家可以下去補充學習下,這里就不多做贅述了。

  接下來,我們來看看數據共享流程,如下圖所示:

  從圖中我們可以看出,我們將統計后的結果存放在mysql數據庫中,這時我們需要編寫一個rpc將數據共享出去,這里我采用的共享方式是, 編寫一個thrift的服務接口,將數據通過這個接口共享出去,然后,前端同學獲取數據后,可以將數據結果以圖表的方式進行展示。

  Thrift接口代碼,如下所示:

  • Thrift接口文件
namespace java cn.jikexueyuan.ubas.service

service UBASService {
    map<string, double> queryDayKPI(1:string beginDate,2:string endDate),
    map<double, double> queryHourKPI(1:string beginDate,2:string endDate)
}
  • Server模塊代碼
package cn.jikexueyuan.ubas.main;

import org.apache.thrift.TProcessorFactory;
import org.apache.thrift.protocol.TCompactProtocol;
import org.apache.thrift.server.THsHaServer;
import org.apache.thrift.server.TServer;
import org.apache.thrift.transport.TFramedTransport;
import org.apache.thrift.transport.TNonblockingServerSocket;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

import cn.jikexueyuan.ubas.service.UBASService;
import cn.jikexueyuan.ubas.service.impl.UBASServiceImpl;

/**
 * @Date Mar 23, 2015
 *
 * @Author dengjie
 */
public class StatsServer {

    private static Logger logger = LoggerFactory.getLogger(StatsServer.class);

    private final int PORT = 9090;

    @SuppressWarnings({ "rawtypes", "unchecked" })
    private void start() {
        try {
            TNonblockingServerSocket socket = new TNonblockingServerSocket(PORT);
            final UBASService.Processor processor = new UBASService.Processor(new UBASServiceImpl());
            THsHaServer.Args arg = new THsHaServer.Args(socket);
            /*
             * Binary coded format efficient, intensive data transmission, The
             * use of non blocking mode of transmission, according to the size
             * of the block, similar to the Java of NIO
             */
            arg.protocolFactory(new TCompactProtocol.Factory());
            arg.transportFactory(new TFramedTransport.Factory());
            arg.processorFactory(new TProcessorFactory(processor));
            TServer server = new THsHaServer(arg);
            server.serve();
        } catch (Exception ex) {
            ex.printStackTrace();
        }
    }

    public static void main(String[] args) {
        try {
            logger.info("start thrift server...");
            StatsServer stats = new StatsServer();
            stats.start();
        } catch (Exception ex) {
            ex.printStackTrace();
            logger.error(String.format("run thrift server has error,msg is %s", ex.getMessage()));
        }
    }

}

2.4 應用調度

  本課時介紹將開發的Hadoop應用打包部署到服務器,配置並完成應用調度, 讓大家掌握Hadoop項目的打包和部署及調度流程。

  本課時主要包含一下知識點,如下圖所示:

  下面,我們來看看項目打包插件的使用,首先打包的內容,下面我們來看一張圖,如下圖所示:

  關於使用Crontab進行定時調度,詳情大家可以觀看視頻教程,這里我就不多做贅述了。《觀看地址

  本課程我們對項目的指標進行了編碼實踐,並指導大家去編碼實現相應的模塊功能,以及幫助大家去調度我們開發的應用等知識,應該掌握一下知識,如下圖所示:

3.總結

  我們在有了這些知識作為基礎,會使得我們在今后的工作中,開發類似的Hadoop項目變得游刃有余,更加的得心應手。

4.結束語

  這就是本課程的主要內容,主要就對Hadoop項目做相應的編碼實踐,完成各個KPI的開發模塊。

  如果本教程能幫助到您,希望您能點擊進去觀看一下,謝謝您的支持!

  轉載請注明出處,謝謝合作!

    本課程的視頻教程地址:《用戶行為分析之編碼實踐


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM