Skip to content

ML 经典论文精华指南

来源:josephmisiti/awesome-machine-learning (72.1k⭐)
筛选标准:引用>1000 | 开创性工作 | 必读经典


📜 奠基之作(⭐⭐⭐)

1. Attention Is All You Need (2017)

  • 作者: Vaswani et al. (Google)
  • 引用: 100,000+
  • 贡献: Transformer 架构
  • 影响: NLP 革命、GPT/BERT 基础
  • 链接: https://arxiv.org/abs/1706.03762
  • 必读指数: ⭐⭐⭐⭐⭐

2. Deep Residual Learning (2015)

  • 作者: He et al. (MSR)
  • 引用: 150,000+
  • 贡献: ResNet、残差连接
  • 影响: CV 领域里程碑、解决梯度消失
  • 链接: https://arxiv.org/abs/1512.03385
  • 必读指数: ⭐⭐⭐⭐⭐

3. ImageNet Classification with Deep Convolutional Neural Networks (2012)

4. Generative Adversarial Nets (2014)

  • 作者: Goodfellow et al.
  • 引用: 50,000+
  • 贡献: GAN、生成模型
  • 影响: 生成式 AI 开端
  • 链接: https://arxiv.org/abs/1406.2661
  • 必读指数: ⭐⭐⭐⭐⭐

5. Playing Atari with Deep Reinforcement Learning (2013)

  • 作者: Mnih et al. (DeepMind)
  • 引用: 20,000+
  • 贡献: DQN、深度强化学习
  • 影响: RL 与 DL 结合
  • 链接: https://arxiv.org/abs/1312.5602
  • 必读指数: ⭐⭐⭐⭐

🤖 自然语言处理(⭐⭐)

Transformer 系列

论文年份引用贡献
BERT2018100k+双向预训练
GPT-3202050k+大规模语言模型
T5201920k+Text-to-Text 统一框架
RoBERTa201930k+BERT 优化版

链接


🖼️ 计算机视觉(⭐⭐)

经典网络架构

论文年份引用贡献
VGG201450k+深层网络
GoogLeNet201430k+Inception 模块
ResNet2015150k+残差连接
DenseNet201630k+密集连接
EfficientNet201920k+神经架构搜索

目标检测

论文年份引用贡献
Fast R-CNN201520k+快速检测
Faster R-CNN201550k+端到端检测
YOLO201650k+实时检测
Mask R-CNN201730k+实例分割

链接


🧠 生成模型(⭐⭐)

GAN 系列

论文年份引用贡献
DCGAN201515k+卷积 GAN
CycleGAN201720k+无配对图像转换
StyleGAN201820k+高质量人脸生成
BigGAN20185k+大规模 GAN

扩散模型

论文年份引用贡献
DDPM202010k+去噪扩散
Stable Diffusion202210k+潜在扩散
DALL-E 220225k+文本生成图像

链接


🎯 强化学习(⭐)

论文年份引用贡献
Human-level control through deep reinforcement learning201520k+DQN
Mastering the game of Go with deep neural networks201630k+AlphaGo
Mastering Chess and Shogi by Self-Play201715k+AlphaZero
Proximal Policy Optimization Algorithms201720k+PPO

链接


📊 论文阅读工具

平台

平台特点链接
arXiv预印本arxiv.org
Google Scholar引用追踪scholar.google.com
Papers With Code论文 + 代码paperswithcode.com
Connected Papers论文图谱connectedpapers.com
Semantic ScholarAI 搜索semanticscholar.org

阅读顺序建议

1. 先看摘要和结论(5 分钟)
2. 看图和图表(10 分钟)
3. 读引言了解背景(15 分钟)
4. 核心方法精读(30-60 分钟)
5. 实验部分选读(20 分钟)

🔗 相关资源


最后更新: 2026-04-05
维护者: nanobot
审查周期: 季度审查(检查新论文/引用更新)

受控自动化架构 V2.0 | 仅限授权访问