這篇論文是在 Recursive Partitioning for Heterogeneous Causal Effects 的基礎上加入了兩個新元素:
- Trigger:對不同群體的treatment選擇個性化閾值。 E.g優惠券力度,紅包金額
- 新的Node Penalty: 旨在增強模型generalization
論文
C. Tran and E. Zheleva, “Learning triggers for heterogeneous treatment effects,” in Proceedings of the AAAI Conference on Artificial Intelligence, 2019
模型
Trigger
Trigger的計算主要用在treatment是一個潛在連續變量,例如服葯的劑量,優惠券的金額等等。這時實驗希望得到的不僅是優惠券是否能提升用戶留存,而且是對哪些用戶使用多少金額的優惠券能最大化ROI。
作者在通過樹划分用戶群的同時計算能夠使該用戶群CATE最大化的Trigger閾值。既在遍歷所有特征可能取值的同時遍歷所有treatment的可能取值,取jointly的最優解。如下
小思考
感覺這里對最佳trigger的選擇還有優化的空間。因為上述split假定了實驗效果對treatment的取值是單調的,如果不單調上述split可能得到不make sense的結果。而且在一些應用場景下是希望取到有條件最優解,例如在成本不超過N的情況下收益越高越好,而不是簡單的最大化實驗效果,這個當前也還無法解決。
Node Penalty
在Athey(2016)的Causal Tree中,作者通過在Cost Functino中加入葉節點方差,以及用驗證集估計CATE的方式來解決決策樹過擬合的問題。這里Tran提出的新的penalty旨在衡量相同節點訓練集和驗證機在CATE估計上的差異。
我們先回顧一下要用到的Notation
以下是Athey(2016) Causal Tree的定義
作者先把全樣本切分成train, val和test。 用訓練集來建樹, 用test來估計葉節點variance,penalize小的葉結點帶來的高方差,然后用葉節點上train和val的差異來penalize損失函數,以下\(\lambda\)控制penalty的大小:
小思考
各式各樣解決over-fitting的方法不能說沒有用,但個人認為最終通過Causal Tree得到的特征和特征取值,還是要依據業務邏輯來進行驗證。以及在不同的樣本集上很可能特征取值的變動要超過over-fitting的影響。所以主觀判斷在這里也很重要
其他相關模型詳見AB實驗的高端玩法系列1-實用HTE論文GitHub收藏
歡迎留言~