/avatar.jpg

L3-Node Embeddings

Node Embeddings https://web.stanford.edu/class/cs224w/slides/02-nodeemb.pdf encoder and decoder encoder: simple example ??注意这里矩阵是one column per node, 这里似乎解释通了为什么glidar里面node在encode的过程中数量不变,换句话说就是 not scalable 呼之欲出啊啊啊啊啊 😱 以下内容非常具有启发性 Random walks 怎么理解高效率? 对特征学习的考量 提出损失函数 用了一个近似来化简 (不约而同走到了noise-denoise) k在5~20之间!又是glidar的论文! summary node2vec embedding the entire graph SKIP

L2-traditional methods

Traditional Methods in Graph Learning node-level features degree Centrality measures: degree centrality, betweenness centrality, eigenvector centrality, closeness centrality, clustering coefficent 进一步引申GDV edge-level features 我觉得这个很像我们的vae encoder想法 距离表征容易理解…… 邻接矩阵的幂(类似于归纳法 略) graph-level features 核方法(但是skip) bag of sth… recall when you need

L1-Intro

CS224W: Intro to Graph Deep Learning GNN for img 也就是说gnn会比传统的cnn更好 🤔 gnn as encoder and diffusion process! how to build a graph? 基本图论知识见CS61B nodes??? edges??? 新的图的表示 双向图与投影图(仔细看线条) 自环的增加的degree为1 接邻矩阵表示连接性