ML 经典论文精华指南
来源:josephmisiti/awesome-machine-learning (72.1k⭐)
筛选标准:引用>1000 | 开创性工作 | 必读经典
📜 奠基之作(⭐⭐⭐)
1. Attention Is All You Need (2017)
- 作者: Vaswani et al. (Google)
- 引用: 100,000+
- 贡献: Transformer 架构
- 影响: NLP 革命、GPT/BERT 基础
- 链接: https://arxiv.org/abs/1706.03762
- 必读指数: ⭐⭐⭐⭐⭐
2. Deep Residual Learning (2015)
- 作者: He et al. (MSR)
- 引用: 150,000+
- 贡献: ResNet、残差连接
- 影响: CV 领域里程碑、解决梯度消失
- 链接: https://arxiv.org/abs/1512.03385
- 必读指数: ⭐⭐⭐⭐⭐
3. ImageNet Classification with Deep Convolutional Neural Networks (2012)
- 作者: Krizhevsky et al. (AlexNet)
- 引用: 100,000+
- 贡献: AlexNet、深度学习爆发
- 影响: 开启深度学习时代
- 链接: https://papers.nips.cc/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html
- 必读指数: ⭐⭐⭐⭐⭐
4. Generative Adversarial Nets (2014)
- 作者: Goodfellow et al.
- 引用: 50,000+
- 贡献: GAN、生成模型
- 影响: 生成式 AI 开端
- 链接: https://arxiv.org/abs/1406.2661
- 必读指数: ⭐⭐⭐⭐⭐
5. Playing Atari with Deep Reinforcement Learning (2013)
- 作者: Mnih et al. (DeepMind)
- 引用: 20,000+
- 贡献: DQN、深度强化学习
- 影响: RL 与 DL 结合
- 链接: https://arxiv.org/abs/1312.5602
- 必读指数: ⭐⭐⭐⭐
🤖 自然语言处理(⭐⭐)
Transformer 系列
| 论文 | 年份 | 引用 | 贡献 |
|---|---|---|---|
| BERT | 2018 | 100k+ | 双向预训练 |
| GPT-3 | 2020 | 50k+ | 大规模语言模型 |
| T5 | 2019 | 20k+ | Text-to-Text 统一框架 |
| RoBERTa | 2019 | 30k+ | BERT 优化版 |
链接
- BERT: https://arxiv.org/abs/1810.04805
- GPT-3: https://arxiv.org/abs/2005.14165
- T5: https://arxiv.org/abs/1910.10683
🖼️ 计算机视觉(⭐⭐)
经典网络架构
| 论文 | 年份 | 引用 | 贡献 |
|---|---|---|---|
| VGG | 2014 | 50k+ | 深层网络 |
| GoogLeNet | 2014 | 30k+ | Inception 模块 |
| ResNet | 2015 | 150k+ | 残差连接 |
| DenseNet | 2016 | 30k+ | 密集连接 |
| EfficientNet | 2019 | 20k+ | 神经架构搜索 |
目标检测
| 论文 | 年份 | 引用 | 贡献 |
|---|---|---|---|
| Fast R-CNN | 2015 | 20k+ | 快速检测 |
| Faster R-CNN | 2015 | 50k+ | 端到端检测 |
| YOLO | 2016 | 50k+ | 实时检测 |
| Mask R-CNN | 2017 | 30k+ | 实例分割 |
链接
- YOLO: https://arxiv.org/abs/1506.02640
- Mask R-CNN: https://arxiv.org/abs/1703.06870
🧠 生成模型(⭐⭐)
GAN 系列
| 论文 | 年份 | 引用 | 贡献 |
|---|---|---|---|
| DCGAN | 2015 | 15k+ | 卷积 GAN |
| CycleGAN | 2017 | 20k+ | 无配对图像转换 |
| StyleGAN | 2018 | 20k+ | 高质量人脸生成 |
| BigGAN | 2018 | 5k+ | 大规模 GAN |
扩散模型
| 论文 | 年份 | 引用 | 贡献 |
|---|---|---|---|
| DDPM | 2020 | 10k+ | 去噪扩散 |
| Stable Diffusion | 2022 | 10k+ | 潜在扩散 |
| DALL-E 2 | 2022 | 5k+ | 文本生成图像 |
链接
- StyleGAN: https://arxiv.org/abs/1812.04948
- DDPM: https://arxiv.org/abs/2006.11239
- Stable Diffusion: https://arxiv.org/abs/2112.10752
🎯 强化学习(⭐)
| 论文 | 年份 | 引用 | 贡献 |
|---|---|---|---|
| Human-level control through deep reinforcement learning | 2015 | 20k+ | DQN |
| Mastering the game of Go with deep neural networks | 2016 | 30k+ | AlphaGo |
| Mastering Chess and Shogi by Self-Play | 2017 | 15k+ | AlphaZero |
| Proximal Policy Optimization Algorithms | 2017 | 20k+ | PPO |
链接
📊 论文阅读工具
平台
| 平台 | 特点 | 链接 |
|---|---|---|
| arXiv | 预印本 | arxiv.org |
| Google Scholar | 引用追踪 | scholar.google.com |
| Papers With Code | 论文 + 代码 | paperswithcode.com |
| Connected Papers | 论文图谱 | connectedpapers.com |
| Semantic Scholar | AI 搜索 | semanticscholar.org |
阅读顺序建议
1. 先看摘要和结论(5 分钟)
2. 看图和图表(10 分钟)
3. 读引言了解背景(15 分钟)
4. 核心方法精读(30-60 分钟)
5. 实验部分选读(20 分钟)🔗 相关资源
最后更新: 2026-04-05
维护者: nanobot
审查周期: 季度审查(检查新论文/引用更新)