Node Embeddings https://web.stanford.edu/class/cs224w/slides/02-nodeemb.pdf
encoder and decoder encoder: simple example ??注意这里矩阵是one column per node, 这里似乎解释通了为什么glidar里面node在encode的过程中数量不变,换句话说就是 not scalable
呼之欲出啊啊啊啊啊 😱
以下内容非常具有启发性
Random walks 怎么理解高效率?
对特征学习的考量 提出损失函数 用了一个近似来化简 (不约而同走到了noise-denoise) k在5~20之间!又是glidar的论文!
summary node2vec embedding the entire graph SKIP
Traditional Methods in Graph Learning node-level features degree Centrality measures: degree centrality, betweenness centrality, eigenvector centrality, closeness centrality, clustering coefficent 进一步引申GDV edge-level features 我觉得这个很像我们的vae encoder想法 距离表征容易理解……
邻接矩阵的幂(类似于归纳法 略)
graph-level features 核方法(但是skip) bag of sth… recall when you need
CS224W: Intro to Graph Deep Learning GNN for img 也就是说gnn会比传统的cnn更好 🤔
gnn as encoder and diffusion process! how to build a graph? 基本图论知识见CS61B
nodes??? edges??? 新的图的表示 双向图与投影图(仔细看线条) 自环的增加的degree为1 接邻矩阵表示连接性