之前總結了PNN,NFM,AFM這類兩兩向量乘積的方式,這一節我們換新的思路來看特征交互。DeepCrossing是最早在CTR模型中使用ResNet的前輩,DCN在ResNet上進一步創新,為高階特征交互提供了新的方法並支持任意階數的特征交叉。
以下代碼針對Dense輸入更容易理解模型結構,針對spare輸入的代碼和完整代碼 👇
https://github.com/DSXiangLi/CTR
Deep Crossing
Deep Crossing結構比較簡單,和最原始的Embedding+MLP的模型結果相比,差異在於之后跟的不是全連接層而是殘差層。模型結構如下
簡單說說殘差網絡,基本的網絡結構如下
殘差網絡解決了什么,為什么有效?這篇博客講得很清楚,核心是解決網絡退化的問題,既隨着網絡深度增加,網絡的表現先是逐漸增加至飽和,然后迅速下降。這里的下降並非指過擬合。理論上如果20層的網絡是最優解,那30層的網絡會包含20層的網絡,后面10層只需做恆等映射\(a^{l} = a^{l-1}\)即可,因此更多懷疑是MLP不易擬合恆等映射。而上述殘差網絡因為做了identity mapping,當\(F(a^{l-1}, w^l)=0\)時,就直接沿用上一層數據也就是進行了恆等變換。
那把ResNet放到CTR模型里又有什么特殊的優勢呢?老實說感覺像是把那個時期比較牛的框架直接拿來用。。。不過能想到的一種是MLP學習的是高階泛化特征,而ResNet做的identity mapping會保留更多的原始低階特征信息,有點類似Wide&Deep又不完全是,因為輸入已經是Embedding而不是原始的離散特征了。真棒又強行解釋了一波。。。
代碼實現
def residual_layer(x0, unit, dropout_rate, batch_norm, mode):
# f(x): input_size -> unit -> input_size
# output = relu(f(x) + x)
input_size = x0.get_shape().as_list()[-1]
# input_size -> unit
x1 = tf.layers.dense(x0, units = unit, activation = 'relu')
if batch_norm:
x1 = tf.layers.batch_normalization( x1, center=True, scale=True,
trainable=True,
training=(mode == tf.estimator.ModeKeys.TRAIN) )
if dropout_rate > 0:
x1 = tf.layers.dropout( x1, rate=dropout_rate,
training=(mode == tf.estimator.ModeKeys.TRAIN) )
# unit -> input_size
x2 = tf.layers.dense(x1, units = input_size )
# stack with original input and apply relu
output = tf.nn.relu(tf.add(x2, x0))
return output
@tf_estimator_model
def model_fn(features, labels, mode, params):
dense_feature = build_features()
dense = tf.feature_column.input_layer(features, dense_feature)
# stacked residual layer
with tf.variable_scope('Residual_layers'):
for i, unit in enumerate(params['hidden_units']):
dense = residual_layer( dense, unit,
dropout_rate = params['dropout_rate'],
batch_norm = params['batch_norm'], mode = mode)
add_layer_summary('residual_layer{}'.format(i), dense)
with tf.variable_scope('output'):
y = tf.layers.dense(dense, units=1)
add_layer_summary( 'output', y )
return y
Deep&Cross
Deep&Cross帶着Wide&Deep的風格,在保留全聯接的Deep部分的同時,Deep&Cross借鑒了上述ResNet的思路,創新了顯式的高階特征交互方式。之前的模型要么像DeepFM直接依賴全連接層來捕捉高階特征交互,要么像PNN,NFM,AFM先基於向量兩兩做內/外/element-wise乘積學習二階交互特征,再依賴全聯接層來學習更高階的交互信息。兩兩交互式的方法很難擴展到更高階,因為會存在維度爆炸的問題。
模型細節
DCN的輸入是Embedding和連續特征拼接而成的Dense輸入,因為不像PNN,AFM等需要兩兩向量內積,因此對每個特征Embedding的維度是否一致沒有要求,然后Cross部分和Deep部分共享輸入,進行聯合訓練,最終把兩個part進行拼接后預測ctr。模型結構如下
Deep部分沒啥好說的和DeepFM,Wide&Deep一樣就是多個全聯接層用來學習泛化特征。Cross部分由多層的cross_layer組成,輸入有N個特征,為簡化Embedding維度統一是為K,每層cross_layer的計算如下
1. 特征共享:控制復雜度
特征共享的存在,保證了Cross每增加一層,新增的參數都是\(O(NK)\)
-
FM視角(式4): FM是每個離散特征共享一個隱向量v,向量交互的權重為隱向量內積,但這種操作只局限於兩兩交互。而Cross是Embedding的每一個元素和其余所有元素交互時共享一個權重w。(這里感覺cross直接用原始的one-hot也是可以的,只不過用Embedding可以進一步降低復雜度)
-
OPNN視角(式5): OPNN兩兩向量做外積得到\(N^2\)個\(K^2\)外積矩陣,拼在一起其實就是Cross不區分Field直接做外積得到的大外積矩陣。不過不像OPNN采用簡單粗暴的sum_pooling來解決維度爆炸的問題,Cross采用每行共享一個權重的方式來降維。保留更多信息的同時保證了Cross-layer的復雜度不會隨層數上升而上升, 每層的維度都是最初的\(NK\), 復雜度也是\(O(NK)\)
2. 多項式內核:任意階數特征交互
為簡化我們先忽略截距項,看下兩層的cross-layer
會發現ResNet加上cross,類似於對輸入向量進行了多項式計算,Cross的部分每深一層,就可以捕捉更高一階的特征交互信息。因此高級特征交互信息的捕捉不再簡單依賴MLP而是人為可控。同時ResNet的存在也保證了不會隨着Cross的加深而導致模型過於泛化,因為最初的輸入特征始終保留。
DCN已經很優秀,只能想到可以吐槽的點
- 對記憶信息的學習可能會有不足,雖然有ResNet但輸入已經是Embedding特征,多少已經是泛化后的特征表達,不知道再加入Wide部分是不是會有提升。
代碼實現
在上面參數共享討論的兩種視角,剛好對應到cross layer的兩種計算方式。按照原始順序Embedding先做外積再加權求和(特征共享中的OPNN視角),會需要存儲巨大的臨時矩陣,代碼如下
def cross_op_raw(xl, x0, weight, feature_size):
# (x0 * xl) * w
# (batch,feature_size) - > (batch, feature_size * feature_size)
outer_product = tf.matmul(tf.reshape(x0, [-1, feature_size,1]),
tf.reshape(xl, [-1, 1, feature_size])
)
# (batch,feature_size*feature_size) ->(batch, feature_size)
interaction = tf.tensordot(outer_product, weight, axes=1)
return interaction
而通過調整向量乘積的順序\((x_0 * x_l) *w \to x_0 * (x_l * w)\)我們可以避免外積矩陣的運算(特征共享中的FM視角),也就是paper中提到的利用\(x_0x_l^T\)是秩為1的矩陣特性。
def cross_op_better(xl, x0, weight, feature_size):
# x0 * (xl * w)
# (batch, 1, feature_size) * (feature_size) -> (batch,1)
transform = tf.tensordot( tf.reshape( xl, [-1, 1, feature_size] ), weight, axes=1 )
# (batch, feature_size) * (batch, 1) -> (batch, feature_size)
interaction = tf.multiply( x0, transform )
return interaction
完整代碼如下
def cross_layer(x0, cross_layers, cross_op = 'better'):
xl = x0
if cross_op == 'better':
cross_func = cross_op_better
else:
cross_func = cross_op_raw
with tf.variable_scope( 'cross_layer' ):
feature_size = x0.get_shape().as_list()[-1] # feature_size = n_feature * embedding_size
for i in range( cross_layers):
weight = tf.get_variable( shape=[feature_size],
initializer=tf.truncated_normal_initializer(), name='cross_weight{}'.format( i ) )
bias = tf.get_variable( shape=[feature_size],
initializer=tf.truncated_normal_initializer(), name='cross_bias{}'.format( i ) )
interaction = cross_func(xl, x0, weight, feature_size)
xl = interaction + bias + xl # add back original input -> (batch, feature_size)
add_layer_summary( 'cross_{}'.format( i ), xl )
return xl
@tf_estimator_model
def model_fn_dense(features, labels, mode, params):
dense_feature = build_features()
dense_input = tf.feature_column.input_layer(features, dense_feature)
# deep part
dense = stack_dense_layer(dense_input, params['hidden_units'],
params['dropout_rate'], params['batch_norm'],
mode, add_summary = True)
# cross part
xl = cross_layer(dense_input, params['cross_layers'], params['cross_op'])
with tf.variable_scope('stack'):
x_stack = tf.concat( [dense, xl], axis=1 )
with tf.variable_scope('output'):
y = tf.layers.dense(x_stack, units =1)
add_layer_summary( 'output', y )
return y
CTR學習筆記&代碼實現系列👇
https://github.com/DSXiangLi/CTR
CTR學習筆記&代碼實現1-深度學習的前奏LR->FFM
CTR學習筆記&代碼實現2-深度ctr模型 MLP->Wide&Deep
CTR學習筆記&代碼實現3-深度ctr模型 FNN->PNN->DeepFM
CTR學習筆記&代碼實現4-深度ctr模型 NFM/AFM
資料
- Gang Fu,Mingliang Wang, 2017, Deep & Cross Network for Ad Click Predictions
- Ying Shan, T. Ryan Hoens, 2016, Deep Crossing: Web-Scale Modeling without Manually Crafted Combinatorial Features
- https://blog.csdn.net/Dby_freedom/article/details/86502623
- https://zhuanlan.zhihu.com/p/80226180