谷歌deepmind科学家Petar Veličković推荐的关于图神经网络的一些blog和资源:

图卷积网络:https://tkipf.github.io/graph-convolutional-networks/

图注意力网络:https://petar-v.com/GAT/

一系列资源: https:// towardsdatascience.com/graph-deep-learning/home

GPT-3 全名 "General Pretrained Transformer-3"  (通用预训练转换器), 即马斯克 OpenAI 开发的一个自然语言处理计算模型。使用GPT-3开发模仿特定名人风格,来自动写小说, 诗歌,剧本等,可能是有趣的方向。如模仿胡锡进、鲁迅体。

感觉学Transformer看三个链接足够。先读原文,再看Jay Alammar动画演示各个概念和步骤,最后读哈佛NLP出的代码说明(https://nlp.seas.harvard.edu/2018/04/03/attention.html),一趟下来是天灵盖被砸开福至心灵的快乐