圖神經網絡 (英文 :graph neural network ,GNN )係一種人工神經網絡 ,攞來處理啲數據啲可以表示成圖 嘅。[ 1] [ 2] [ 3]
基本構建塊畀圖神經網絡(GNN)。
(
1
)
{\displaystyle (1)}
執位 等變𤗲。
(
2
)
{\displaystyle (2)}
局部pooling𤗲。
(
3
)
{\displaystyle (3)}
全局pooling(或者readout)𤗲。顏色表示特徵 。
喺普遍嘅「幾何深度學習 」主題裏頭,噻尐現有嘅神經網絡架構都可以着解釋成GNN運行喺啲圖得到適當定義過嘅[ 4] 。卷積神經網絡 ,喺背景係計算機視覺 前提下可以睇作係一種 GNN,應用喺啲圖啲組成像素 網格結構嘅。喺自然語言處理 語境裏頭,Transformers 可以睇作係作用喺完全圖 上高嘅 GNN,啲綟係句子 裏頭嘅單詞 。
關鍵設計元素畀 GNN 係使用到成孖嘅訊息傳遞 ,等啲圖綟得透過交換訊息戥佢啲鄰舍來疊代更新啲嘢表示。自引入隻概念以來,已經提出有幾種嘸同嘅架構畀 GNN[ 1] [ 5] [ 6] [ 7] ,實現到嘸同風格嘅訊息傳遞[ 4] 。截至2022年 (2022-唔見咗必要嘅參數 1=月份 ! ) [update] ,有可能定義啲 GNN 架構「超越」訊息傳遞嘅與否,或者每隻 GNN 都建立得喺基於傳遞訊息喺適當定義嘅圖上與否,都仲係一個開放嘅研究問題[ 8] 。
GNN 嘅相關應用領域包括社交網絡 [ 9] 、引文網絡 [ 10] 、分子生物學 [ 11] 、物理學 [ 12] 同埋NP-hard 組合優化 問題[ 13] 。
存在有幾隻用得嘅開源 庫 畀實現啲圖神經網絡,例如 PyTorch Geometric [ 14] (PyTorch )、TensorFlow GNN[ 15] (TensorFlow )同埋jraph[ 16] (Google JAX )。
通用嘅架構畀 GNN 裏頭有以下啲基本𤗲 得到實現[ 4] :
執位等變 :執位等變𤗲轉換 隻嘢表示畀一張圖嘅轉成一隻更新過嘅表示。喺文獻裏頭,實現執位等變𤗲係透過成孖訊息傳遞喺圖綟之間嘅來[ 4] [ 8] 。直觀來講,一𤗲訊息傳遞𤗲裏頭,綟更新 隻嘢表示係透過聚合 啲訊息 ,啲接受跟佢啲直接鄰舍來嘅。因此,每𤗲訊息傳遞𤗲都會幫 GNN 感受野 增加一𨂾。
局部pooling :局部pooling𤗲透過下採樣 來整粗粒啲圖。局部pooling係攞來增加 GNN 嘅感受野,透過一種類似卷積神經網絡 裏頭pooling𤗲嘅方式。例子包括KNN pooling、top-k pooling[ 17] 、與及自關注pooling[ 18] 。
全局 pooling :全局pooling𤗲,都喊做讀出 𤗲,提供固定大細嘅嘢表示畀成隻圖。全局pooling𤗲必須係執位嘸變嘅,等執位畀順序畀圖綟同檠嘸會再改變隻最終輸出。[ 19] 例子包括元素𤗲面嘅加和、平均或者最大值。
已經有證明講 GNN 並嘸係有表現力強過 Weisfeiler-Lehman 圖同構測試[ 20] [ 21] 。實踐裏頭,代表講存在有嘸同嘅圖結構係 GNN 嘸區分得到嘅(例如,由相同原子 組成但啲鍵 嘸同嘅分子 )。設計出啲愈發強大嘅 GNN,啲運行喺譬如高維幾何嘢似單體複形 之類嘅,又得[ 22] 。截至2022年 (2022-唔見咗必要嘅參數 1=月份 ! ) [update] ,未來嘅架構克服得到訊息傳遞隻基本原理抑或冇,仲係一隻開放嘅研究問題[ 8] 。
GNN 嘸區分得到嘅非同構圖,出於Weisfeiler -Lehman 圖同構測試嘅限制。顏色表示啲綟特徵 。
更新綟表示喺訊息傳遞神經網絡 (MPNN)層當中。綟
x
0
{\displaystyle \mathbf {x} _{0}}
接收訊息跟佢所有啲直系鄰舍
x
1
{\displaystyle \mathbf {x} _{1}}
至
x
4
{\displaystyle \mathbf {x} _{4}}
來。訊息得透過隻訊息函數
ϕ
{\displaystyle \phi }
來計算,隻函數講明到啲特徵畀嘸單止係發送者仲有接收者嘅。
訊息傳遞層係一尐執位等變層,識捉幅圖轉換成更新過嘅表示畀隻同一幅圖嘅。形式上,啲層可以表示成訊息傳遞神經網絡(MPNN)[ 4] 。
設
G
=
(
V
,
E
)
{\displaystyle G=(V,E)}
係一幅圖 ,其中
V
{\displaystyle V}
係隻綟集並且
E
{\displaystyle E}
係隻檠集。設
N
u
{\displaystyle N_{u}}
係隻鄰舍 畀某隻綟
u
∈
V
{\displaystyle u\in V}
。另外,設
x
u
{\displaystyle \mathbf {x} _{u}}
係特徵畀綟
u
∈
V
{\displaystyle u\in V}
,而
e
u
v
{\displaystyle \mathbf {e} _{uv}}
係特徵畀檠
(
u
,
v
)
∈
E
{\displaystyle (u,v)\in E}
。係噉一層 MPNN層 得表示如下[ 4] :
h
u
=
ϕ
(
x
u
,
⨁
v
∈
N
u
ψ
(
x
u
,
x
v
,
e
u
v
)
)
{\displaystyle \mathbf {h} _{u}=\phi \left(\mathbf {x_{u}} ,\bigoplus _{v\in N_{u}}\psi (\mathbf {x} _{u},\mathbf {x} _{v},\mathbf {e} _{uv})\right)}
其中
ϕ
{\displaystyle \phi }
、
ψ
{\displaystyle \psi }
係微分得嘅函數(例如,人工神經網絡 ),並且
⨁
{\displaystyle \bigoplus }
係一個執位 嘸變 嘅聚合算子,可以接受隨便乜數量嘅輸入(例如,逐隻元素嘅總和、平均或者最大值)。特別嘅係,
ϕ
{\displaystyle \phi }
、
ψ
{\displaystyle \psi }
分別着喊做更新 同埋訊息 函數。直觀來講,一䊆 MPNN 計算塊裏頭,圖綟更新 佢隻表示係透過聚合 啲訊息 跟佢啲鄰舍來嘅。
一𤗲或者多𤗲 MPNN 𤗲嘅輸出係綟嘅嘢表示
h
u
{\displaystyle \mathbf {h} _{u}}
畀每粒圖裏頭嘅綟
u
∈
V
{\displaystyle u\in V}
。綟嘅嘢表示可以用於任何下游任務,例如綟/圖分類 或者檠預測。
MPNN 裏頭嘅圖綟更新佢啲嘅嘢表示係透過聚合訊息跟佢啲直接鄰舍來。因此,堆疊
n
{\displaystyle n}
𤗲MPNN 𤗲代表到一粒綟可以戥最多
n
{\displaystyle n}
「𨂾」外嘅綟通訊。原則上,為確保每粒綟都接收得到訊息跟其他綟來,需要堆疊多𤗲MPNN 𤗲等戥圖直徑 相等。之但係,堆疊好多 MPNN 𤗲可能會導致諸如過度平滑(oversmoothing)[ 23] 同過度擠壓(oversquashing)[ 24] 等問題。過度平滑係指冇辦法區分得各綟嘅嘢表示。過度擠壓係指種樽頸問題,產生跟壓縮啲遠距離嘅互相依賴變成固定大細嘅嘢表示嘅。對策似skip連接[ 6] [ 25] (似喺殘差神經網絡 裏頭嘅)、閘控嘅更新規則[ 26] 與及跳躍知識(jumping knowledge)[ 27] 等,緩解得到過度平滑。改最後一𤗲成完全相接嘅𤗲,即捉圖當成完整圖 ,可以減輕過度擠壓問題喺啲需要遠距離互相依賴嘅情況[ 24] 。
其他「風格」畀 MPNN 經已得到開發喺文獻當中[ 4] ,譬如圖卷積網絡[ 5] 、圖關注網絡[ 7] ,佢哋啲定義攞 MPNN 嘅形式都表示得到。
圖卷積網絡(英文 :graph convolutional network , GCN)由Thomas Kipf同Max Welling首次引入喺 2017 年[ 5] 。
GCN 𤗲定義了一階近似畀圖上嘅局部化嘅譜濾波器 。GCNs 可以理解成卷積神經網絡 得到普適化喺圖結構數據。
GCN𤗲嘅正式表達式如下:
H
=
σ
(
D
~
−
1
2
A
~
D
~
−
1
2
X
Θ
)
{\displaystyle \mathbf {H} =\sigma \left({\tilde {\mathbf {D} }}^{-{\frac {1}{2}}}{\tilde {\mathbf {A} }}{\tilde {\mathbf {D} }}^{-{\frac {1}{2}}}\mathbf {X} \mathbf {\Theta } \right)}
其中
H
{\displaystyle \mathbf {H} }
係矩陣畀綟嘅嘢表示
h
u
{\displaystyle \mathbf {h} _{u}}
,
X
{\displaystyle \mathbf {X} }
係矩陣畀綟特徵
x
u
{\displaystyle \mathbf {x} _{u}}
,
σ
(
⋅
)
{\displaystyle \sigma (\cdot )}
係一隻激活函數 (例如ReLU ),
A
~
{\displaystyle {\tilde {\mathbf {A} }}}
係圖鄰接矩陣 帶有自迴環(self-loops)嘅,
D
~
{\displaystyle {\tilde {\mathbf {D} }}}
係圖次數矩陣 帶有自迴環嘅,而
Θ
{\displaystyle \mathbf {\Theta } }
係矩陣畀啲可供訓練嘅參數。
特別嘅係,設
A
{\displaystyle \mathbf {A} }
係隻圖鄰接矩陣:然之後,可以定義
A
~
=
A
+
I
{\displaystyle {\tilde {\mathbf {A} }}=\mathbf {A} +\mathbf {I} }
同
D
~
i
i
=
∑
j
∈
V
A
~
i
j
{\displaystyle {\tilde {\mathbf {D} }}_{ii}=\sum _{j\in V}{\tilde {A}}_{ij}}
,其中
I
{\displaystyle \mathbf {I} }
表示單位矩陣 。種歸一化確保到特徵值 畀
D
~
−
1
2
A
~
D
~
−
1
2
{\displaystyle {\tilde {\mathbf {D} }}^{-{\frac {1}{2}}}{\tilde {\mathbf {A} }}{\tilde {\mathbf {D} }}^{-{\frac {1}{2}}}}
係有界嘅喺範圍
[
0
,
1
]
{\displaystyle [0,1]}
內,避免到數值嘸穩定 同埋梯度爆炸/消失 。
GCN 嘅一個限制係佢哋嘸允許多維檠特徵
e
u
v
{\displaystyle \mathbf {e} _{uv}}
[ 5] 。之不過,可以關聯啲標量權重
w
u
v
{\displaystyle w_{uv}}
戥每個檠,透過令
A
u
v
=
w
u
v
{\displaystyle A_{uv}=w_{uv}}
,即透過設置每個非零項喺隻鄰接矩陣裏頭嘅設置成等於隻權重畀每條對應嘅檠。
圖關注網絡(英文 :graph attention network , GAT)由Petar Veličković等人喺2018 年引入[ 7] 。
圖關注網絡係圖神經網絡同關注𤗲嘅組合。喺圖形神經網絡中,關注𤗲嘅實現有助於提供關注能力或者焦點畀數據裏頭嘅重要訊息,而嘸係集中喺成隻數據上。
一個多頭 GAT 𤗲可以表示成如下:
h
u
=
‖
k
=
1
K
σ
(
∑
v
∈
N
u
α
u
v
W
k
x
v
)
{\displaystyle \mathbf {h} _{u}={\overset {K}{\underset {k=1}{\Big \Vert }}}\sigma \left(\sum _{v\in N_{u}}\alpha _{uv}\mathbf {W} ^{k}\mathbf {x} _{v}\right)}
其中
K
{\displaystyle K}
係關注 頭嘅數量,
‖
{\displaystyle {\Big \Vert }}
表示向量錔接(vector concatenation ),
σ
(
⋅
)
{\displaystyle \sigma (\cdot )}
係一個激活函數 (例如ReLU ),
α
i
j
{\displaystyle \alpha _{ij}}
係關注係數,而
W
k
{\displaystyle W^{k}}
係矩陣畀可供訓練嘅參數畀第
k
{\displaystyle k}
隻關注頭嘅。
對於最孻嘅 GAT 𤗲,每隻關注頭嘅輸出得到做平均喺應用激活函數之前。形式上,最孻嘅 GAT 𤗲可以寫成:
h
u
=
σ
(
1
K
∑
k
=
1
K
∑
v
∈
N
u
α
u
v
W
k
x
v
)
{\displaystyle \mathbf {h} _{u}=\sigma \left({\frac {1}{K}}\sum _{k=1}^{K}\sum _{v\in N_{u}}\alpha _{uv}\mathbf {W} ^{k}\mathbf {x} _{v}\right)}
機械學習中嘅關注 係一種模仿認知注意力 嘅技術。喺圖學習嘅背景下,關注係數
α
u
v
{\displaystyle \alpha _{uv}}
衡量綟
u
∈
V
{\displaystyle u\in V}
到綟
v
∈
V
{\displaystyle v\in V}
有幾一重要。
歸一化嘅關注係數計算如下:
α
u
v
=
exp
(
LeakyReLU
(
a
T
[
W
h
u
‖
W
h
v
‖
e
u
v
]
)
)
∑
z
∈
N
u
exp
(
LeakyReLU
(
a
T
[
W
h
u
‖
W
h
z
‖
e
u
z
]
)
)
{\displaystyle \alpha _{uv}={\frac {\exp({\text{LeakyReLU}}\left(\mathbf {a} ^{T}[\mathbf {W} \mathbf {h} _{u}\Vert \mathbf {W} \mathbf {h} _{v}\Vert \mathbf {e} _{uv}]\right))}{\sum _{z\in N_{u}}\exp({\text{LeakyReLU}}\left(\mathbf {a} ^{T}[\mathbf {W} \mathbf {h} _{u}\Vert \mathbf {W} \mathbf {h} _{z}\Vert \mathbf {e} _{uz}]\right))}}}
其中
a
{\displaystyle \mathbf {a} }
係向量畀可供學習嘅權重,
⋅
T
{\displaystyle \cdot ^{T}}
表示轉置 ,而
LeakyReLU
{\displaystyle {\text{LeakyReLU}}}
係修改後嘅 ReLU 激活函數。關注係數得到歸一化,等容易比較佢哋喺嘸同綟之間[ 7] 。
GCN 可以睇作係 GAT 嘅一種特殊情況,其中關注係數係嘸學習得嘅,而係固定、等於檠權重
w
u
v
{\displaystyle w_{uv}}
嘅。
Yujia Li 等人引入了閘控圖序迾神經網絡(英文 :gated graph sequence neural network , GGS-NN)喺2015 年[ 26] 。GGS-NN 擴展了 Scarselli 等人嘅 GNN 組成來做輸出序迾[ 1] 。訊息傳遞框架着實現為一種更新規則畀閘控遞迴單位 (GRU)胞。
一個 GGS-NN 可以表示如下:
h
u
(
0
)
=
x
u
‖
0
{\displaystyle \mathbf {h} _{u}^{(0)}=\mathbf {x} _{u}\,\Vert \,\mathbf {0} }
m
u
(
l
+
1
)
=
∑
v
∈
N
u
Θ
h
v
{\displaystyle \mathbf {m} _{u}^{(l+1)}=\sum _{v\in N_{u}}\mathbf {\Theta } \mathbf {h} _{v}}
h
u
(
l
+
1
)
=
GRU
(
m
u
(
l
+
1
)
,
h
u
(
l
)
)
{\displaystyle \mathbf {h} _{u}^{(l+1)}={\text{GRU}}(\mathbf {m} _{u}^{(l+1)},\mathbf {h} _{u}^{(l)})}
其中
‖
{\displaystyle \Vert }
表示向量錔接,
0
{\displaystyle \mathbf {0} }
係一個零向量,
Θ
{\displaystyle \mathbf {\Theta } }
係矩陣畀可供學習嘅參數,
GRU
{\displaystyle {\text{GRU}}}
係一個 GRU 單元,而
l
{\displaystyle l}
表示序迾索引。喺 GGS-NN 裏頭,綟嘅嘢表示着當成隱狀態畀 GRU 胞。初始綟特徵
x
u
(
0
)
{\displaystyle \mathbf {x} _{u}^{(0)}}
着零填充(zero-padded )做到啱 GRU 胞嘅隱狀態維度。相同嘅 GRU 胞用於更新每粒綟嘅嘢表示。
局部pooling𤗲透過下採樣來整粗粒啲圖。以下呈現幾種學習得嘅局部pooling策略[ 19] 。對於每種情況,輸入係幅初始圖,由一隻矩陣
X
{\displaystyle \mathbf {X} }
畀綟特徵嘅與及隻圖鄰接矩陣
A
{\displaystyle \mathbf {A} }
兩者來表示。輸出係隻新矩陣
X
′
{\displaystyle \mathbf {X} '}
畀綟特徵嘅與及隻新嘅圖鄰接矩陣
A
′
{\displaystyle \mathbf {A} '}
。
首先設
y
=
X
p
‖
p
‖
{\displaystyle \mathbf {y} ={\frac {\mathbf {X} \mathbf {p} }{\Vert \mathbf {p} \Vert }}}
其中
p
{\displaystyle \mathbf {p} }
係一個學習得嘅投影 向量。投影向量
p
{\displaystyle \mathbf {p} }
計算標量投影值畀每粒圖綟。
跟尾可以捉 top-k pooling𤗲[ 17] 形式化如下:
X
′
=
(
X
⊙
sigmoid
(
y
)
)
i
{\displaystyle \mathbf {X} '=(\mathbf {X} \odot {\text{sigmoid}}(\mathbf {y} ))_{\mathbf {i} }}
A
′
=
A
i
,
i
{\displaystyle \mathbf {A} '=\mathbf {A} _{\mathbf {i} ,\mathbf {i} }}
其中
i
=
top
k
(
y
)
{\displaystyle \mathbf {i} ={\text{top}}_{k}(\mathbf {y} )}
係子集畀啲綟,啲有前 k 隻最高投影分數嘅,
⊙
{\displaystyle \odot }
表示逐隻元素嘅矩陣乘法 ,而
sigmoid
(
⋅
)
{\displaystyle {\text{sigmoid}}(\cdot )}
係sigmoid 函數 。即係話,啲綟有排前k位最高投影分數嘅,得到保留喺新嘅鄰接矩陣
A
′
{\displaystyle \mathbf {A} '}
裏頭。隻
sigmoid
(
⋅
)
{\displaystyle {\text{sigmoid}}(\cdot )}
操作令到投影向量
p
{\displaystyle \mathbf {p} }
可以透過反向傳播 訓練,否則佢會產生啲離散輸出[ 17] 。
首先設
y
=
GNN
(
X
,
A
)
{\displaystyle \mathbf {y} ={\text{GNN}}(\mathbf {X} ,\mathbf {A} )}
其中
GNN
{\displaystyle {\text{GNN}}}
係一個通用嘅執位等變 GNN 𤗲(例如,GCN、GAT、MPNN)。
跟尾可以捉自關注pooling𤗲[ 18] 形式化如下:
X
′
=
(
X
⊙
y
)
i
{\displaystyle \mathbf {X} '=(\mathbf {X} \odot \mathbf {y} )_{\mathbf {i} }}
A
′
=
A
i
,
i
{\displaystyle \mathbf {A} '=\mathbf {A} _{\mathbf {i} ,\mathbf {i} }}
其中
i
=
top
k
(
y
)
{\displaystyle \mathbf {i} ={\text{top}}_{k}(\mathbf {y} )}
係子集畀啲綟,啲有前 k 隻最高投影分數嘅,
⊙
{\displaystyle \odot }
表示逐元素嘅矩陣乘法 。
自關注pooling𤗲可以睇作係擴展top-k pooling 𤗲。嘸同於 top-k pooling,自關注pooling裏頭計算嘅自關注分數同時考慮埋圖特徵與及圖拓撲。
圖神經網絡係 AlphaFold 嘅主要組成部分之一,隻係由Google 嘅DeepMind 開發嘅人工智能程序,着攞來解決生物學 中嘅蛋白質折疊 問題。AlphaFold 獲得第一名喺好幾項CASP 比賽當中。[ 28] [ 29] [ 27]
社交網絡 係 GNN 嘅主要應用領域,因為佢哋可以自然噉表示成社交圖 。GNN 用於開發啲推薦系統,啲基於社會關係 同埋item關係嘅。[ 30] [ 9]
GNN 得用作基本嘅構建塊畀噻幾種組合優化算法[ 31] 。例子包括計算最短路徑 或者歐拉迴路 畀一幅畀定嘅圖[ 26] ,推導出芯片佈局 係優於人工或者相當於人工解決方案嘅[ 32] ,以及改進Branch and Bound 裏頭嘅專家設計嘅分支規則[ 33] 。
↑ 1.0 1.1 1.2 Scarselli, Franco; Gori, Marco; Tsoi, Ah Chung; Hagenbuchner, Markus; Monfardini, Gabriele (2009). "The Graph Neural Network Model" . IEEE Transactions on Neural Networks . 20 (1): 61–80. doi :10.1109/TNN.2008.2005605 . ISSN 1941-0093 . PMID 19068426 . S2CID 206756462 .
↑ Sanchez-Lengeling, Benjamin; Reif, Emily; Pearce, Adam; Wiltschko, Alex (2021-09-02). "A Gentle Introduction to Graph Neural Networks" . Distill . 6 (9): e33. doi :10.23915/distill.00033 . ISSN 2476-0757 .
↑ Daigavane, Ameya; Ravindran, Balaraman; Aggarwal, Gaurav (2021-09-02). "Understanding Convolutions on Graphs" . Distill . 6 (9): e32. doi :10.23915/distill.00032 . ISSN 2476-0757 . S2CID 239678898 .
↑ 4.0 4.1 4.2 4.3 4.4 4.5 4.6 Bronstein, Michael M.; Bruna, Joan; Cohen, Taco; Veličković, Petar (May 4, 2021). "Geometric Deep Learning: Grids, Groups, Graphs Geodesics and Gauges". arXiv :2104.13478 [cs.LG ].
↑ 5.0 5.1 5.2 5.3 Kipf, Thomas N; Welling, Max (2016). "Semi-supervised classification with graph convolutional networks" . IEEE Transactions on Neural Networks . 5 (1): 61–80. arXiv :1609.02907 . doi :10.1109/TNN.2008.2005605 . PMID 19068426 . S2CID 206756462 .
↑ 6.0 6.1 Hamilton, William; Ying, Rex; Leskovec, Jure (2017). "Inductive Representation Learning on Large Graphs" (PDF) . Neural Information Processing Systems . 31 . arXiv :1706.02216 –透過Stanford.
↑ 7.0 7.1 7.2 7.3 Veličković, Petar; Cucurull, Guillem; Casanova, Arantxa; Romero, Adriana; Liò, Pietro; Bengio, Yoshua (2018-02-04). "Graph Attention Networks". arXiv :1710.10903 [stat.ML ].
↑ 8.0 8.1 8.2 Veličković, Petar (2022). "Message passing all the way up". arXiv :2202.11097 [cs.LG ].
↑ 9.0 9.1 Ying, Rex; He, Ruining; Chen, Kaifeng; Eksombatchai, Pong; Hamilton, William L.; Leskovec, Jure (2018). Graph Convolutional Neural Networks for Web-Scale Recommender Systems . pp. 974–983. arXiv :1806.01973 . doi :10.1145/3219819.3219890 . ISBN 9781450355520 . S2CID 46949657 .
↑ "Stanford Large Network Dataset Collection" . snap.stanford.edu . 喺2021-07-05 搵到 .
↑ Gilmer, Justin; Schoenholz, Samuel S.; Riley, Patrick F.; Vinyals, Oriol; Dahl, George E. (2017-07-17). "Neural Message Passing for Quantum Chemistry" . Proceedings of Machine Learning Research (英文): 1263–1272. arXiv :1704.01212 .
↑ Qasim, Shah Rukh; Kieseler, Jan; Iiyama, Yutaro; Pierini, Maurizio Pierini (2019). "Learning representations of irregular particle-detector geometry with distance-weighted graph networks". The European Physical Journal C . 79 (7). doi :10.1140/epjc/s10052-019-7113-9 . S2CID 88518244 .
↑ Li, Zhuwen; Chen, Qifeng; Koltun, Vladlen (2018). "Combinatorial optimization with graph convolutional networks and guided tree search". Neural Information Processing Systems . 31 : 537–546. arXiv :1810.10659 .
↑ Matthias, Fey; Lenssen, Jan E. (2019). "Fast Graph Representation Learning with PyTorch Geometric". arXiv :1903.02428 [cs.LG ].
↑ "Tensorflow GNN" . GitHub . 喺30 June 2022搵到 .
↑ "jraph" . GitHub . 喺30 June 2022搵到 .
↑ 17.0 17.1 17.2 Gao, Hongyang; Ji, Shuiwang Ji (2019). "Graph U-Nets". arXiv :1905.05178 [cs.LG ].
↑ 18.0 18.1 Lee, Junhyun; Lee, Inyeop; Kang, Jaewoo (2019). "Self-Attention Graph Pooling". arXiv :1904.08082 [cs.LG ].
↑ 19.0 19.1 Liu, Chuang; Zhan, Yibing; Li, Chang; Du, Bo; Wu, Jia; Hu, Wenbin; Liu, Tongliang; Tao, Dacheng (2022). "Graph Pooling for Graph Neural Networks: Progress, Challenges, and Opportunities". arXiv :2204.07321 [cs.LG ].
↑ Douglas, B. L. (2011-01-27). "The Weisfeiler–Lehman Method and Graph Isomorphism Testing". arXiv :1101.5211 [math.CO ].
↑ Xu, Keyulu; Hu, Weihua; Leskovec, Jure; Jegelka, Stefanie (2019-02-22). "How Powerful are Graph Neural Networks?". arXiv :1810.00826 [cs.LG ].
↑ Bodnar, Christian; Frasca, Fabrizio; Guang Wang, Yu; Otter, Nina; Montúfar, Guido; Liò, Pietro; Bronstein, Michael (2021). "Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks". arXiv :2103.03212 [cs.LG ].
↑ Chen, Deli; Lin, Yankai; Li, Wei; Li, Peng; Zhou, Jie; Sun, Xu (2020). "Measuring and Relieving the Over-smoothing Problem for Graph Neural Networks from the Topological View". Proceedings of the AAAI Conference on Artificial Intelligence . 34 (4): 3438–3445. arXiv :1909.03211 . doi :10.1609/aaai.v34i04.5747 . S2CID 202539008 .
↑ 24.0 24.1 Alon, Uri; Yahav, Eran (2021). "On the Bottleneck of Graph Neural Networks and its Practical Implications". arXiv :2006.05205 [cs.LG ].
↑ Xu, Keyulu; Zhang, Mozhi; Jegelka, Stephanie; Kawaguchi, Kenji (2021). "Optimization of Graph Neural Networks: Implicit Acceleration by Skip Connections and More Depth". arXiv :2105.04550 [cs.LG ].
↑ 26.0 26.1 26.2 Li, Yujia; Tarlow, Daniel; Brockschmidt, Mark; Zemel, Richard (2016). "Gated Graph Sequence Neural Networks". arXiv :1511.05493 [cs.LG ].
↑ 27.0 27.1 Xu, Keyulu; Li, Chengtao; Tian, Yonglong; Sonobe, Tomohiro; Kawarabayashi, Ken-ichi; Jegelka, Stefanie (2018). "Representation Learning on Graphs with Jumping Knowledge Networks". arXiv :1806.03536 [cs.LG ].
↑ Sample, Ian (2 December 2018). "Google's DeepMind predicts 3D shapes of proteins" . The Guardian . 喺30 November 2020搵到 .
↑ "DeepMind's protein-folding AI has solved a 50-year-old grand challenge of biology" . MIT Technology Review (英文). 喺30 November 2020搵到 .
↑ Fan, Wenqi; Ma, Yao; Li, Qing; He, Yuan; Zhao, Eric; Tang, Jiliang; Yin, Dawei (2019). Graph Neural Networks for Social Recommendation . pp. 417–426. arXiv :1902.07243 . doi :10.1145/3308558.3313488 . hdl :10397/81232 . ISBN 9781450366748 . S2CID 67769538 .
↑ Cappart, Quentin; Chételat, Didier; Khalil, Elias; Lodi, Andrea; Morris, Christopher; Veličković, Petar (2021). "Combinatorial optimization and reasoning with graph neural networks". arXiv :2102.09544 [cs.LG ].
↑ Mirhoseini, Azalia; Goldie, Anna; Yazgan, Mustafa; Jiang, Joe Wenjie; Songhori, Ebrahim; Wang, Shen; Lee, Young-Joon; Johnson, Eric; Pathak, Omkar; Nazi, Azade; Pak, Jiwoo; Tong, Andy; Srinivasa, Kavya; Hang, William; Tuncer, Emre; Le, Quoc V.; Laudon, James; Ho, Richard; Carpenter, Roger; Dean, Jeff (2021). "A graph placement methodology for fast chip design". Nature . 594 (7862): 207–212. doi :10.1038/s41586-021-03544-w . PMID 34108699 . S2CID 235395490 .
↑ Gasse, Maxime; Chételat, Didier; Ferroni, Nicola; Charlin, Laurent; Lodi, Andrea (2019). "Exact Combinatorial Optimization with Graph Convolutional Neural Networks". arXiv :1906.01629 [cs.LG ].