Improved GNN positionally-aware gnn anchor数量 大小 (指数守恒) refer to the paper of Position-aware Graph Neural Networks (P-GNN)
L7-GNN theory 1 所有gnn的原型在这里
一个layer layers之间的交互 input graph -> computational graph的构建 GO!!!!
a simple layer of GNN msg computations 原神处理dddd
aggregation 核心:order invariance 焯这就是pointnet的核心之一啊!!!
issue: 容易忽略自己节点 some examples of GNNs GCN GraphSAGE 这里的细节在于如何聚合邻居的信息
同时每层来个norm
GAT 首先解释一下什么是attention mechanism 单个attention的计算 多头attention的计算(更容易收敛) GNN layers in practice glidar呼之欲出了 😱 有意思的东西😋 stacking GNN layers
GNN Intro shallow deep graph encoder tmd 终于来了 !!! 借鉴cnn,但是
没有fixed notion or sliding window permutation invariance! GCNN 直觉上的思考 其实就是3 + 1步走
找到aggregate function 找到loss function train on a set of nodes apply to new nodes 7 8.1 9
16.2 17