埋點設計與管理分析


埋點的作用

開始之前先看一下為什么要收集埋點數據,埋點都可以做什么。埋點主要用於記錄用戶行為,幾乎是應用必不可少的功能。埋點的作用包括但不限於

分析用戶轉化以及存留
例如下載的用戶數量,注冊的用戶數量,一段時間之后的存留用戶數量;

分析用戶偏好
例如通過用戶行為的分析,可以對用戶的偏好做一定的概括,便於投其所好針對特性的用戶推送特定的服務,甚至開發不同的用戶體驗;

收集市場反饋
例如針對新功能的用戶行為進行統計,就可以分析出功能的市場反饋,為是否保留功能或者改良方向提供依據;

保障用戶數據安全
例如用戶的地理位置數據在短時間內突然發生了異常變更,這一秒在南京,下一秒突然就在東京登陸了,那就說明賬號發生了異常,需要對賬號身份進行驗證,以確保用戶數據的安全.

定位異常
例如特定的數據(比如注冊)在某一段時間內數據突然無緣由發生持續性異常,說明該功能可能存在異常,需要及時做排查.

其他作用
例如當某一個較早機型占比降低到某一個閥值時,就可以在下一個版本中去掉對該設備的支持.

埋點數倉設計

數據進入數倉之前我們就需要設計好數倉表,埋點的表的數據有幾個特點,所以我們在設計的時候需要考慮到

  1. 數據量非常大,可能是所有數據集成渠道里面,流量最大的了
  2. 數據不存在更新,這是埋點表的數據特點

面對這兩個特點,我們需要做一些設計,當然還有一些其他設計方面的點需要注意一下,首先因為量大,而且我們往往關注的是昨天的數據,所以我們的表肯定是分區表,其次因為我們使用的特點,例如關注的是頁面瀏覽或者是按鈕點擊,所以我們在時間分區的基礎上按照事件進行分區。這樣我們可以在數據查詢的時候過濾掉大量的數據從而提高查詢的性能。

其次就是埋點表的作為數據報表的數據來源的時候,可能會大概率遇到計算延遲,或者是一些其他問題,所以在寬表的設計或者是報表展示中,請盡量地將集成進行后延,從而更好的保證穩定性和可用性。

埋點的類型

埋點:在期望的點位,埋設一個記錄的標記。這個點位,一般多是指用戶與產品進行一次次交互的接觸點,從而可以在用戶和產品交互的時候,將用戶的數據進行上報。

通過收集這些標記點的數據,可以幫助產品運營及開發同學了解功能的整體使用、運行情況,並通過數據基礎上做出下一步調整或優化的方向。遇事不拍腦袋,而是用數據說話,這是數據埋點最大的價值。

在AB測試的場景下,數據埋點為實驗組的效果提供數據支持,其本質也是數據決策的基礎。

根據目前常見的數據埋點形式,可以將數據埋點分為全埋點、代碼埋點(自定義埋點),當然我們也可以按照產品的類型划分為,APP埋點、web 埋點、小程序埋點

全埋點

全埋點的邏輯,是指數據采集sdk無區別的對待所有事件的,將所有事件(頁面的加載成功事件、控件的瀏覽和點擊事件)全部獲取后先存下來,到使用的時候,再根據具體的頁面路徑和控件名稱,去撈取相應的數據。

可視化埋點

基於此,可視化埋點是指,在全埋點部署成功、已經可以獲得全量數據的基礎上,以可視化的方式,然后進行數據選擇。

這種方案的弊端之一是耗流量和存儲空間,全埋點采集的數據一般會根據情況設定一個銷毀時限,比如7天。即:全采集過來的數據,如果7天之內沒有被使用,則會刪除。而一旦對圈選數據做了圈選定義之后,則被定義的頁面數據、控件數據,則會一直采集,且不會刪除。

全埋點,其優勢和特點是功能上線時,不需要開發做額外的埋點定義工作,用的時候再根據需求去獲取對應的數據,因此也叫無埋點。

全埋點的缺點

  1. 耗用戶流量、占存儲空間;
  2. 一旦版本迭代,對頁面的路徑做修改,或者控件位置、文案有修改,原來的圈選數據可能就會出錯,需要重新圈選,之前利用圈選指標設定的分析模型都要替換;
  3. 圈選指標無法區分細部參數,比如:商品詳情頁,無法通過圈選數據來區分是哪一個商品或哪一個類目;
  4. 對web的頁面數據處理一直不好,尤其是涉及到APP的內嵌H5頁時,非常痛苦。

因此,全埋點適用於業務多變、經常調整,且分析訴求比較輕量的場景。對於通用的功能,形態相對比較固定,且對數據分析顆粒度、下鑽深度、聚合程度要求比較高,那就需要用到代碼埋點

代碼埋點

代碼埋點也叫自定義埋點,從字面上即可理解:是針對想要的點位單獨定義,並可以通過變量豐富埋點的信息,以支持上下游分析。

代碼埋點分為前端埋點和后端埋點。

前端埋點,包括但不限於APP客戶端、H5、微信小程序、PC網頁,是指對具體的功能場景(如加載成功、瀏覽、點擊等)進行明確的定義,由前端觸發,采集上來的數據相比於全埋點,更准確、穩定,且通過變量字段,能夠實現更細顆粒度數據的拆分、聚合和下鑽。

后端埋點,指觸發了服務端接口調用(如:接口回調成功觸發)的事件埋點,如最典型的注冊成功事件、付費成功事件。后端埋點對數據的准確度要求更高,同時也可以通過變量字段的擴展支持數據拆分、聚合和下鑽。需要強調的是,后端事件一般采集的是已登錄狀態下的用戶行為,如果想使用后端埋點事件作為流程分析的其中一環(如漏斗分析),則可能出現未登錄的用戶會漏掉的情況。

綜合以上,幾種埋點類型的比較

埋點上報方式

對於一個埋點方案來說,數據上報有兩個點需要着重考慮:

  1. 對跨域做特殊處理。
  2. 頁面銷毀后,如何還能夠將未上傳的埋點數據成功上報

圖片請求

有下面幾點優勢:

  1. 沒有跨域問題,一般這種上報數據,代碼要寫通用的,img 天然支持跨域;(排除 ajax)
  2. 不會阻塞頁面加載,影響用戶的體驗,只要 new Image 對象就好了, 通過它的onerror和onload事件來檢測發送狀態;(排 除 JS/CSS 文件資源方式上報)
  3. 在所有圖片中,簡單、安全、相比PNG/JPG體積最小;(比較 PNG/JPG)(tip:最小的BMP文件需要74個字節,PNG需要67個字節,而合法的GIF,只需要43個字

這種使用方式也存在缺陷。首先對於src 中的URL內容是有大小限制的,太大的數據量不適用。詳細看這里。其次,在頁面卸載的時候,若存在數據未發送的情況,會先將對應的數據發送完,再執行頁面卸載。這種情況下,會在體驗上給使用者帶來不方便。

GET 請求

GET把參數包含在URL中,也就是說我們的上報的數據是在一個url 參數中或者是幾個參數中,例如 ?data=XXXX 這里的data 就是我們上報的數據

GET 請求 最大的特點就是簡單,但是同時也帶來了很多其他的問題,首先是安全問題因為GET 請求參數被暴露在IURL 中,GET請求只能進行url編碼,而POST支持多種編碼方式,其次GET請求在URL中傳送的參數是有長度限制的,也就是如果你上報的數據內容比較多,可能會被截斷。

POST 請求

POST 請求 相比GET 請求首先就是更加安全,其次是支持多種編碼,而且所能發送的數據量也更大,看起來是個不錯的選擇,但是還是不如圖片請求好

埋點管理設計

整個埋點的事件可以使用4W1H 進行表示

下面是APP 端的一個例子

事件模型

我們使用“事件模型( Event 模型)”來描述用戶的各種行為,事件模型包括事件( Event )和用戶( User )兩個核心實體。整個埋點的屬性,我們可以分為兩大類,第一類是事件屬性,第二類是用戶屬性。

為什么這兩個實體結合在一起就可以清晰地描述清楚用戶行為?實際上,我們在描述用戶行為時,往往只需要描述清楚幾個要點,即可將整個行為描述清楚,要點包括:是誰、什么時間、什么地點、以什么方式、干了什么。而事件( Event )和用戶( User )這兩個實體結合在一起就可以達到這一目的。下面分別介紹一下這兩個實體。

一個完整的事件( Event ),包含如下的幾個關鍵因素:

Who:即參與這個事件的用戶是誰。

When:即這個事件發生的實際時間。

Where:即事件發生的地點。

How:即用戶從事這個事件的方式。這個概念就比較廣了,包括用戶使用的設備、使用的瀏覽器、使用的 App 版本、操作系統版本、進入的渠道、跳轉過來時的 referer 等。

What:以字段的方式記錄用戶所做的事件的具體內容。不同的事件需要記錄的信息不同,下面給出一些典型的例子:

對於一個“購買”類型的事件,則可能需要記錄的字段有:商品名稱、商品類型、購買數量、購買金額、 付款方式等;

對於一個“搜索”類型的事件,則可能需要記錄的字段有:搜索關鍵詞、搜索類型等;

對於一個“點擊”類型的事件,則可能需要記錄的字段有:點擊 URL、點擊 title、點擊位置等;

對於一個“用戶注冊”類型的事件,則可能需要記錄的字段有:注冊渠道、注冊邀請碼等;

對於一個“用戶投訴”類型的事件,則可能需要記錄的字段有:投訴內容、投訴對象、投訴渠道、投訴方式等;

對於一個“申請退貨”類型的事件,則可能需要記錄的字段有:退貨金額、退貨原因、退貨方式等。

描述事件的任意一個字段,都是一個事件屬性。應該采集哪些事件,以及每個事件采集哪些事件屬性,完全取決於產品形態以及分析需求。

事件的設計

下面分別是 H5、APP 、小程序 端埋點的一個設計

基本規范

我們在設計的時候要注意一些基本的規范,例如我們屬性的命名,這樣才能可以更好的維護

預置屬性

設計原則

整個埋點的設計我們應該遵循一下幾個原則,從而可以更好的維護和管理整個埋點系統

通用基礎事件

埋點時間能通用則不單獨埋點,不是說單獨埋點越多越好,我們應該盡可能的從上層設計比較通用的事件,這樣方便復用。

重要事件

重要事件單獨處理,統一上報,保證采集的可用性

業務主流程

對於主要的業務流程,我們可以設計獨立的事件,從而方便更好的分析

自定義事件

其實所有的事件都是自定義事件,但是我們為什么還是要區分自定義事件呢?

這是因為我們在一開始定義可很多通用的事件,所以我們的自定義事件是相對我們的通用事件而言的,但是我們怎么去定義一個自定義事件嗎,其實還要考慮到通用的屬性,因為這樣我們可以復用通用事件的一些屬性的定義,而不是完全重新設計一套東西。

舉例來說,一個電商產品可能包含如下事件:用戶注冊、瀏覽商品、添加購物車、支付訂單等,這里我們就那用戶注冊事件來說吧,其實它應該是一個點擊事件,但是和點擊事件不一樣的是,我們需要添加一些新的屬性,所以我們可以在點擊事件的基礎上去添加屬性,有點類似編程語言的繼承,但是有的時候我們也可以去組合多個事件的屬性,其實這個是不常見的。

數據從生產到應用的流程

業務流程
確定場景或目標

確定一個場景,或者一個目標。比如,我們發現很多用戶訪問了注冊頁面,但是最終完成注冊的很少。那么我們的目標就是提高注冊轉化率,了解為什么用戶沒有完成注冊,是哪一個步驟擋住用戶了。

數據采集規划

思考哪些數據我們需要了解,以幫助我們實現這個目標。比如對於之前的目標,我們需要拆解從進入注冊頁面到完成注冊的每一個步驟的數據,每一次輸入的數據,同時,還有完成或者未完成這些步驟的人的特征數據。

埋點采集數據

我們需要確定誰來負責收集數據,一般是工程師,有些企業有專門的數據工

程師,負責埋點采集數據。

數據評估和數據分析
給出優化方案

發現問題后,怎么給出解決方案。比如,是否需要在設計上改進,或者是否是工程上的 bug。

實施優化方案

誰負責實現解決方案,需要確定方案的實施責任人。

評估解決方案的效果

進行下一輪數據采集和分析,回到第一步繼續迭代。

知易行難。這整個流程里,第 2 步到第 4 步是關鍵。目前傳統的服務商

比如 Google Analytics、百度統計、友盟所采用的方式稱作 Capture 模

式。通過在客戶端埋下確定的點,采集相關數據到雲端,最終在雲端做呈

現。

開發流程

首先是基於一定的需求出發,然后產品/業務/分析師 對需求進行評審,主要就是需求同步,信息對齊,接下來就是埋點的開發與測試,埋點上線之后,數據同學開始進行數據需求開發在此過程中對埋點進行驗收,最后對數據需求進行交付

這個過程,需要專門投入專人去做這個事情,企業需要定制頂層的業務規范,上面的流程中有一個環節是沒有的,那就是埋點的下線。

數據產品和數據分析師不僅要考慮到業務需求和數據分析的工作,還要站在業務線數據體系和數據應用負責人的角度,對埋點實施、管理、迭代、文檔、交付、支持進行掌控和維護

埋點管理系統設計

其實很多公司針對埋點會維護單獨的一個系統,這個系統主要維護了公司的全部埋點,其實你可以將其理解為和jira 類似的一套系統。下面我們看系統的核心

埋點列表

埋點注冊

埋點詳情

主要提供關於埋點的基本信息和統計信息

屬性管理

在埋點元數據中維護產品/業務層面的通用屬性,由數據團隊統一維護,所有可見的屬性,都可以在注冊/編輯埋點是添加屬性時搜索到。自定義屬性相對於通用屬性,是某個事件下特有的屬性,由業務方根據埋點方案維護

表設計/展示設計
字段名稱 備注
埋點ID 表的自增ID 即可
埋點域 是APP 埋點還是web 埋點還是都是
埋點中文名稱  
埋點英文名稱  
埋點位置 這個位置我們要求使用圖片進行展示+文字說明
這里的圖片展示很重要,因為這樣很形象
埋點開發負責人 誰負責開發,很多時候會涉及到APP 和 Web 同時開發
埋點業務負責人 誰提的需求
埋點數據負責人 誰負責該埋點對應數據需求的處理,完成最終埋點的驗收
埋點業務含義 為什么埋點,關於埋點的具體數據計算邏輯是什么
埋點所屬事件 埋點所屬的事件,一般情況下我們都可以將一個埋點歸到我們已經定義的埋點事件中去
如果是沒有合適的埋點事件,需要先定義事件,再定義該埋點
埋點通用屬性 一旦歸類到某個埋點事件下面,我們要求上報該事件的全部屬性
自定義屬性 該埋點的自定義屬性
埋點代碼git的PR 是一個url,方便追蹤埋點代碼
埋點的Jira 埋點需求的jira 跟蹤
埋點的狀態 上線、測試、開發、下線、不可見等狀態
這里下線,指的是如果埋點的功能不要了或者其他的一些原因,我們需要對埋點進行及時下線
埋點的創建時間  
埋點的上線時間  
埋點的更新時間  

主要的就是上面這些,我們需要做的就是將這些進行前端展示和前端錄入。

數據解析在哪里做

首先我們還是先看一下一個架構圖,從而理解一下數據流轉,下面就是數據流轉的一個大致方向

最后面的maxcompute 是我們的計算引擎,你可以將其當作是hive/spark ,具體是啥不重要,我們的數據通過前端(APP/web)前端上報,但是我們需要一個后端服務用來接收數據,然后后端獲取到數據之后進入消息隊列,最后我們再通過數據同步工具/數據消工具 把數據同步到大數據平台,從而開始數據計算和建模。

這里有一個問題就是我們上報上來的數據可能是加密的,或者是我們的消息隊列是支持schema的(kafka 不支持),這種情況下我們的數據要不要解析呢?直接說結論吧,最好不要解析,將解析的工作放在計算引擎中做,原因很多,下面陳述兩點:

  1. 后端服務在這里扮演的角色其實和消息隊列差不多,如果這個過程有邏輯越多,耦合就越高,可擴展性就差,例如前端上報的數據格式變了,或者是有其他的一些升級,這個時候后端也要做對應的操作,然后重新發布。
  2. 后端服務如果在這里有大量的邏輯的話,對性能也不好,因為埋點的數據量很大,如果這里出現瓶頸的話,就會出現服務不穩定,從而導致數據丟失

其實我看到有的人可能將IP 解析放在這里做,其實這也是不合理的,因為做IP 解析之前你需要先做數據解密、JSON 解析,然后數據推送到消息隊列之前還要做數據加密,可以看出這里的加解密想當於白做了。

但是凡事也有例外,你也可以在后端這里做一些數據過濾,這樣可以減少后面數據處理的壓力,畢竟相比CPU ,網絡才是最慢的。

數據丟失如何處理

這里我們主要關注前端—>后端—> 消息隊列的這個環節的消息丟失,我們認為消息只要成功投遞就不會發生消息丟失,關於這一點很多消息隊列都可以保證,我們不做過多討論,可以參考: https://blog.csdn.net/king14bhhb/article/details/114624437

所以我們的消息丟失主要在后端這一塊,當然這里丟失的原因,我們可以分為兩類

  1. 后端服務不穩定,前端請求得不到影響,數據丟失,我們可以認為是前端數據丟失
  2. 消息隊列服務不穩定,后端消息不能成功投遞,導致消息丟失,我們可以認為是后端數據丟失

可以看出來,這里后端是關鍵,所以我們采取的措施是日志補償的方式,也就是對於投遞失敗的消息,我們可以將其追加到特定的日志文件,然后再將抽取到大數據計算平台,這里有一個問題就是最好監控,如果有大量的消息投遞失敗,我們一定要及時修復,防止日志文件過大。

對於后端服務的不穩定導致前端數據投遞失敗,我們需要做的就是做好監控和高可用,以及自動擴容,因為很多時候是因為流量急劇增加導致后端服務壓力太大,從而導致不穩定。

總結

  • 埋點是數據平台很重要的一部分,如果只有業務數據沒有埋點數據,那么用戶在我們平台上的一切行為對我們來說都是黑盒,所以我們想要做到精細化運營埋點是必須的。
  • 由於埋點的數據從產生到使用鏈路很長,而且很復雜,這就需要我們做好設計和管理工作。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM