一次性读懂ChatGPT的技术演进路线,根据李沐老师推荐的5篇经典论文,整理了论文原文、论文解读、Github代码实现。
2017 | Transformer | 继MLP、CNN、RNN后的第四大类架构 | ||
2018 | GPT | 使用 Transformer 解码器来做预训练 | ||
2018 | BERT | Transformer一统NLP的开始 | ||
2019 | GPT-2 | 更大的 GPT 模型,朝着zero-shot learning迈了一大步 | ||
2020 | GPT-3 | 100倍更大的 GPT-2,few-shot learning效果显著 |
我们整理了这5篇论文的所有相关网页,汇总到
ChaGPT Transformer 5篇重量级论文博客和代码整理http://www.webhub123.com/#/home/detail?projectHashid=13892800&ownerUserid=27786724
其中亮黄色的为论文原文,每一个卡片为一个网址,每个卡片都有简单的标签。登录后可一键保存到我的收藏,高效快捷地整理您的科研资料
论文列表和说明整理自 GitHub - mli/paper-reading: 深度学习经典、新论文逐段精读,其他博客和代码为个人整理