AI 经典论文精选
本页收录 AI 领域值得深入研读的经典论文,按主题分类整理,方便查阅和学习。
🧠 大语言模型基础
奠定现代 LLM 技术基础的核心论文。
| 论文 | 作者/机构 | 年份 | 简介 |
|---|---|---|---|
| Attention Is All You Need | 2017 | 必读 — Transformer 架构开山之作,现代 LLM 的基石 | |
| BERT: Pre-training of Deep Bidirectional Transformers | 2018 | 双向预训练模型,开创预训练+微调范式 | |
| Language Models are Few-Shot Learners (GPT-3) | OpenAI | 2020 | 展示大规模语言模型的涌现能力和 In-Context Learning |
| Training Language Models to Follow Instructions (InstructGPT) | OpenAI | 2022 | RLHF 方法论,让模型更好地遵循人类指令 |
| LLaMA: Open and Efficient Foundation Language Models | Meta | 2023 | 开源高效基座模型,推动开源 LLM 发展 |
🎯 提示词与上下文工程
如何更好地与 LLM 交互。
| 论文 | 作者/机构 | 年份 | 简介 |
|---|---|---|---|
| Chain-of-Thought Prompting Elicits Reasoning | 2022 | 必读 — 思维链提示,显著提升 LLM 推理能力 | |
| Self-Consistency Improves Chain of Thought Reasoning | 2022 | 自一致性解码,多路径推理取多数投票 | |
| Tree of Thoughts: Deliberate Problem Solving with LLMs | Princeton & Google DeepMind | 2023 | 思维树,探索式推理框架 |
| Context Engineering 2.0: The Context of Context Engineering | 上海交大 | 2025 | 上下文工程综述,从历史演进到实践设计 |
🤖 AI Agent
构建自主智能体的核心研究。
| 论文 | 作者/机构 | 年份 | 简介 |
|---|---|---|---|
| ReAct: Synergizing Reasoning and Acting in Language Models | Google & Princeton | 2022 | 必读 — 推理+行动交替,Agent 的经典范式 |
| Generative Agents: Interactive Simulacra of Human Behavior | Stanford & Google | 2023 | 生成式智能体,模拟人类行为的虚拟社会 |
| Toolformer: Language Models Can Teach Themselves to Use Tools | Meta | 2023 | 让模型自主学习使用外部工具 |
| AutoGPT: An Autonomous GPT-4 Experiment | 开源社区 | 2023 | 自主任务执行 Agent 的早期探索 |
| The Landscape of Emerging AI Agent Architectures | 多机构 | 2024 | Agent 架构综述,梳理主流设计模式 |
📚 检索增强生成 (RAG)
将外部知识与 LLM 结合。
| 论文 | 作者/机构 | 年份 | 简介 |
|---|---|---|---|
| Retrieval-Augmented Generation for Knowledge-Intensive NLP | Meta (Facebook AI) | 2020 | 必读 — RAG 开山之作,检索+生成的统一框架 |
| REALM: Retrieval-Augmented Language Model Pre-Training | 2020 | 检索增强的预训练方法 | |
| Self-RAG: Learning to Retrieve, Generate and Critique | 华盛顿大学 | 2023 | 自反思 RAG,模型学会自我批判和检索 |
🔧 模型能力与评估
理解和评估 LLM 的能力边界。
| 论文 | 作者/机构 | 年份 | 简介 |
|---|---|---|---|
| Emergent Abilities of Large Language Models | 2022 | 涌现能力研究,规模扩大带来的质变 | |
| Sparks of Artificial General Intelligence (GPT-4 Technical Report) | Microsoft Research | 2023 | GPT-4 能力的早期深度分析 |
| MMLU: Massive Multitask Language Understanding | UC Berkeley | 2020 | 多任务语言理解基准,广泛使用的评估标准 |
🔐 对齐与安全
确保 AI 系统的安全和可控。
| 论文 | 作者/机构 | 年份 | 简介 |
|---|---|---|---|
| Constitutional AI: Harmlessness from AI Feedback | Anthropic | 2022 | 必读 — 宪法 AI,通过 AI 反馈实现对齐 |
| Training a Helpful and Harmless Assistant (HH-RLHF) | Anthropic | 2022 | 有帮助且无害的助手训练方法 |
| Red Teaming Language Models to Reduce Harms | Anthropic | 2022 | 红队测试,主动发现模型安全漏洞 |
📖 阅读建议
入门路径
如果你是 AI/LLM 新手,建议按以下顺序阅读:
- Attention Is All You Need — 理解 Transformer 架构
- GPT-3 论文 — 理解大规模语言模型的能力
- Chain-of-Thought — 理解如何引导模型推理
- ReAct — 理解 Agent 的基本范式
- RAG 论文 — 理解如何扩展模型知识
进阶研究
掌握基础后,可以深入:
- Constitutional AI — 理解对齐和安全
- Context Engineering 2.0 — 系统化的上下文设计
- Agent 架构综述 — 把握 Agent 发展方向
如何阅读论文
- 先读摘要和结论 — 快速把握论文核心贡献
- 看图表和算法 — 理解具体方法
- 关注实验设置 — 理解如何验证有效性
- 精读相关工作 — 了解领域全貌