Skip to content

Anthropic Engineering 文章合集

🔗 官方页面: https://www.anthropic.com/engineering

Anthropic Engineering 是 Anthropic 技术团队的官方博客,发布关于构建可靠 AI 系统的深度技术文章。这些文章涵盖了 AI Agent 开发的方方面面,是学习现代 AI 工程实践的优质资源。


📚 文章索引

🤖 Agent 开发核心

文章日期简介
Building effective agents2024-12-19必读 — Agent 开发的奠基性文章,介绍如何构建有效的 AI Agent,包括架构设计、工作流模式和最佳实践
Building agents with the Claude Agent SDK2025-09-29使用 Claude Agent SDK 构建 Agent 的官方教程
Effective context engineering for AI agents2025-09-29上下文工程实践指南,如何高效管理和利用 Agent 的上下文窗口
Equipping agents for the real world with Agent Skills2025-10-16Agent Skills 介绍,如何为 Agent 装备真实世界的能力
Effective harnesses for long-running agents2025-11-26探讨长时间运行 Agent 面临的跨上下文窗口挑战,借鉴人类工程师经验设计更有效的 Agent 框架

🛠️ 工具设计与使用

文章日期简介
Introducing Contextual Retrieval2024-09-19上下文检索技术介绍,提升 RAG 系统的检索质量
The "think" tool: Enabling Claude to stop and think2025-03-20"think" 工具介绍,让 Claude 在复杂工具使用场景中能够停下来思考
Writing effective tools for agents — with agents2025-09-11如何为 Agent 编写有效的工具,用 Agent 来辅助工具开发
Introducing advanced tool use on the Claude Developer Platform2025-11-24Claude 开发者平台的高级工具使用功能介绍

💻 Claude Code 与编程

文章日期简介
Raising the bar on SWE-bench Verified with Claude 3.5 Sonnet2025-01-06Claude 3.5 Sonnet 在 SWE-bench 基准测试中的表现提升
Claude Code: Best practices for agentic coding2025-04-18Claude Code 最佳实践,如何高效使用 AI 进行代码开发
Beyond permission prompts: making Claude Code more secure and autonomous2025-10-20通过沙箱等技术使 Claude Code 更安全、更自主

🔌 MCP 与集成

文章日期简介
Desktop Extensions: One-click MCP server installation2025-06-26Claude Desktop 的桌面扩展功能,一键安装 MCP 服务器
Code execution with MCP: Building more efficient agents2025-11-04使用 MCP 进行代码执行,构建更高效的 Agent

🔬 研究与事后分析

文章日期简介
How we built our multi-agent research system2025-06-13Anthropic 如何构建多 Agent 研究系统
A postmortem of three recent issues2025-09-17三个近期问题的事后分析,透明地分享经验教训
Building a C compiler with a team of parallel Claudes2026-02-05使用多个并行 Claude 实例协作构建 C 编译器的实践探索

🧪 测试与评估

文章日期简介
Demystifying evals for AI agents2026-01-09全面解析 AI Agent 的评估方法,包括评估器类型、能力评估及非确定性处理等策略
Designing AI-resistant technical evaluations2026-01-21探讨如何设计难被 AI 破解的技术评估,分享性能工程团队在招聘测试设计中的博弈与思考
Quantifying infrastructure noise in agentic coding evals2026-02量化 Agent 编程评估中基础设施噪声的影响,提升评估结果的可靠性

🎯 推荐阅读顺序

第一阶段:Agent 开发核心(必读)

  1. Building effective agents — 理解 Agent 的基本概念和架构
  2. The "think" tool — 了解如何提升 Agent 的推理能力
  3. Effective context engineering — 掌握上下文管理技巧
  4. Writing effective tools for agents — 学习工具设计最佳实践
  5. Effective harnesses for long-running agents — 解决复杂场景下的 Agent 运行问题

第二阶段:工具设计与使用

  1. Building agents with the Claude Agent SDK — 使用官方 SDK 构建 Agent
  2. Equipping agents with Agent Skills — 为 Agent 装备真实世界的能力
  3. Introducing advanced tool use — 高级工具使用功能
  4. Introducing Contextual Retrieval — 提升 RAG 系统的检索质量

第三阶段:Claude Code 与编程

  1. Claude Code: Best practices — Claude Code 最佳实践
  2. Beyond permission prompts — Claude Code 安全与自主性
  3. Raising the bar on SWE-bench — SWE-bench 基准测试提升

第四阶段:MCP 与集成

  1. Code execution with MCP — MCP 代码执行实践
  2. Desktop Extensions — 一键安装 MCP 服务器

第五阶段:研究与事后分析

  1. A postmortem of three recent issues — 问题事后分析与经验教训
  2. How we built our multi-agent research system — 多 Agent 研究系统构建
  3. Building a C compiler with a team of parallel Claudes — 并行 Claude 协作实践

第六阶段:测试与评估

  1. Demystifying evals for AI agents — Agent 评估方法论
  2. Designing AI-resistant technical evaluations — 设计抗 AI 技术评估
  3. Quantifying infrastructure noise in agentic coding evals — 评估中的基础设施噪声量化

🔗 相关资源


持续更新

Anthropic Engineering 会持续发布新文章,建议定期访问官方页面获取最新内容。


← 返回 AI 工具