GCN 入門


參考鏈接: https://www.zhihu.com/question/54504471/answer/611222866

1 拉普拉斯矩陣

  1. 參考鏈接: http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang-tong-qi
  2. L = D - A, A 為圖的鄰接矩陣, D 為頂點度的對角矩陣, L 為 拉普拉斯矩陣

   

1.1 拉普拉斯矩陣的類別

3 圖卷積的參數

   

  1. 參考鏈接: http://bbs.cvmart.net/articles/281/cong-cnn-dao-gcn-de-lian-xi-yu-qu-bie-gcn-cong-ru-men-dao-jing-fang-tong-qi
  2. 由 1 小節得知, 圖卷積的公式, 圖卷積訓練的參數在公式中對角矩陣中, GCN 的訓練有兩個版本, 第一版思維簡單但是因為其缺點已經不再使用, 現在大都使用第二個版本

       

3.1 第一代圖卷積訓練

    1. 直接將對角矩陣中對角上的值當做參數
    2. 表示激活函數
    3. 表示輸入向量
  1. 優點
    1. 發現中間的除去 的公式為拉普拉斯矩陣的分解公式, 那么在運算中不再需要分解公式, 直接使用拉普拉斯矩陣即可, 減少了計算量
    2. 參數少

   

3.2 第二代圖卷積訓練

    1. 將 轉為了 , 其中為任意參數, 需要進行隨機初始化, 即邊的權重
    2. 借助 U 和拉普拉斯矩陣的特征進行化簡, 得到
        1. L 表示拉普拉斯矩陣
        2. K 表示頂點的階數, 頂點的鄰居節點
        3. x 表示輸入的特征, 為了形象的理解, 以一張灰度圖為例
          1. 圖的結構即圖像的方格排列, 不需要人為的設計, 因為圖片的形狀就是如此, 每一個方格是圖的一個頂點
          2. 像素值即每一個頂點的特征, 只不過在一般的圖結構中, 頂點的值為一個特征向量
          3. 表示邊的權重, 也是網絡需要訓練並且優化的參數

   

   

3.3 圖解圖卷積

   

  1.  

   

  1.  

   

  1. GCN每一次卷積對所有的頂點都完成了圖示的操作

4 GCN 分類的效果

   

  1. 圖結構如下

  2. 輸入 PageID, IP, UA, DeviceID, UserID, 通過卷積, 得到中間節點的特征, 也就是分類的結果
  3. 與比較 GBDT 相比, 效果更好

5 圖卷積網絡的拓撲結構

  1. 參考鏈接: https://mp.weixin.qq.com/s/356WvVn1Tz0axsKd8LJW4Q
  2. 拓撲結構

    1. 和 CNN 類似, 每一層都是疊加堆積在一起的, 經過卷積得到的結果, 通過激活函數(ReLU, Sigmoid等)傳到下一層
    2. 不是每一個頂點都要進行卷積重新計算新的特征, 而是選擇靠近中心的頂點
    3. 在上圖中, 表示的不是圖的結構, 也不是邊所代表的的權重, 而是每一個頂點對應的特征向量, 在圖片中, 每一個頂點對應的是一個標量, 即像素值
    4. 3 圖卷積的參數中提到了圖卷積的參數與公式, 第二代的圖卷積公式在運用的時候回轉變成一個更清晰的表示公式
      1.    

        1. 表示標准化系數
        2. H 表示上一層每一個頂點的特征向量, 維度為 NxF, N 表示頂點個數, F 表示特征向量的維度
        3. W 表示邊權重
        4. 公式的定性理解
          1. 選定一個頂點 V, 確定鄰域, 如果個數不到鄰域個數, 則補充啞頂點, 如果超過, 則刪除對於的頂點
          2. 獲取鄰域中頂點的特征向量, 將其余頂點 V 的邊(權重)相乘再相加, 得到新的維度的特征向量
          3. 防止較大的尺度變化, 將得到的結果進行標准化

           

    5. 圖卷積的特點
      1.    


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM