機械学習・DeepLearning分野の論文読解に役に立つ論文著者索引

論文の本文中では「oo et al., yyyy」のように先行研究を参照することが多いです。それぞれ「References」に具体的な論文を確認することができる一方で、都度確認するのは大変です。そこで当記事では論文の著者名から該当する研究を確認できるような索引の作成を行いました。

作成にあたってはよく引用される各分野の有名論文を中心にabc順でまとめました。厳密さではなく、「概ねこの論文が該当するだろう」を重視しているので、正確にはそれぞれの論文の「References」を確認してください。特に複数該当する場合は多くの場合「yyyya, yyyyb, $\cdots$」のように表記されます。

DeepLearning

CNN

著者名該当研究
He et al., 2015ResNet
Krizhevsky et al., 2012AlexNet
Simonyan et al., 2014VGGNet

RNN・Transformer・LLM

著者名該当研究
Brown et al., 2020GPT-3
Devlin et al., 2018BERT
Du et al., 2021GLaM
Hoffmann et al., 2022Chinchilla
Kitaev et al., 2020Reformer
Liu et al., 2019RoBERTa
Mikolov et al., 2013Word2vec
Radford et al., 2018GPT・GPT-2
Rae et al., 2021Gopher
Raffel et al., 2020T5
Smith et al., 2022Megatron–Turing NLG
Sutskever et al., 2014seq2seq
Thoppilan et al., 2022LaMDA
Vaswani et al., 2017Transformer
Yang et al.,XLNet

生成モデル

著者名該当研究
Goodfellow et al., 2014GAN: Generative Adversarial networks
Ho et al., 2020DDPM
Sohl-Dickstein et al., 2015Diffusion Model
Radford et al., 2021CLIP
Ramesh et al., 2021DALL-E

GNN

著者名該当研究
Battaglia et al., 2018Graph Network・Inductive Bias
Gilmer et al., 2017MPNN: Message Passing Neural Network
Wang et al., 2018NLNN: Non-Local Neural Network

点群・集合

著者名該当研究
Lee et al., 2019Set Transformer
Qi et al., 2017PointNet
Zaheer et al., 2017Deep sets

強化学習

強化学習×Transformer

著者名該当研究
Chen et al., 2021Decision Transformer