本仓库旨在整理关于大语言模型(LLM)底层逻辑、上下文工程 (Context Engineering) 以及 Model Context Protocol (MCP) 协议的核心学习资源与实战路径。
核心目标: 理解 LLM 的运行“内存”限制与预测本质。
- 核心视频: Intro to Large Language Models - Andrej Karpathy
- 核心笔记:
- Token 原子论: 理解 Tokenization 对拼写、算术的影响。
- 上下文窗口即 RAM: LLM 的 Context Window 决定了其处理复杂任务的上限。
- 预测机制: 理解“预测下一个 Token”如何导致上下文腐烂(Context Decay)。
- 工作记忆限制: 警惕 "Lost in the Middle" 效应,优化信息在 Prompt 中的排布。
核心目标: 学习如何通过优化 Token 配置来提升模型效能。
- 核心视频: Context Engineering & MCP Intro
- 上下文四大策略:
策略 说明 场景 写入 (Write) 将详情存入外部存储(如文件、数据库) 持久化知识 选择 (Select) 仅加载当前步骤所需的“高信号”信息 节省 Token 消耗 压缩 (Compress) 对冗余信息进行摘要或状态持久化 处理长文本 隔离 (Isolate) 通过子代理架构减少 Context 污染 复杂多任务并行 - 核心原则: 遵循 Anthropic 的 “金锁区 (Goldilocks Zone)” 原则,保持 Prompt 长度恰到好处。
核心目标: 打通 LLM 与本地/云端数据的“连接层”。
- 核心视频:
- 技术要点:
- 架构理解: 客户端-服务器模型(Client-Server Model)。
- 核心三要素: 工具 (Tools)、资源 (Resources)、提示词 (Prompts)。
- 环境搭建:
- 使用
FilesystemMCP 读写本地文件。 - 使用
Google Drive / GitHubMCP 访问远程资产。
- 使用
- 调试技巧: 使用 MCP Inspector 监控调用生命周期。
核心目标: 实现具备“专家经验”的持久化代理,掌握三层加载机制。
- 核心视频:
- 渐进式披露 (Progressive Disclosure) 架构:
- 元数据层 (Metadata): 始终在线的轻量目录。
- 指令层 (Instructions): 仅在匹配需求后才加载的详细规则。
- 资源层 (Resources): 按需调用的脚本 (Scripts) 与参考文件。
- 项目级持久化: 利用
CLAUDE.md记录项目上下文、编码标准与状态。
- 编辑器: Cursor 或 VS Code
- 终端: Claude Code (官方 CLI 工具)
- 客户端: Claude Desktop (支持 MCP 配置)