Skip to content

本仓库旨在整理关于大语言模型(LLM)底层逻辑、**上下文工程 (Context Engineering)** 以及 **Model Context Protocol (MCP)** 协议的核心学习资源与实战路径。

Notifications You must be signed in to change notification settings

twwch/AI-Tracker

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 

Repository files navigation

🚀 LLM 上下文工程与 MCP 实战学习指南

本仓库旨在整理关于大语言模型(LLM)底层逻辑、上下文工程 (Context Engineering) 以及 Model Context Protocol (MCP) 协议的核心学习资源与实战路径。


🧠 模块一:LLM 底层逻辑与 Token 经济学

核心目标: 理解 LLM 的运行“内存”限制与预测本质。

  • 核心视频: Intro to Large Language Models - Andrej Karpathy
  • 核心笔记:
    • Token 原子论: 理解 Tokenization 对拼写、算术的影响。
    • 上下文窗口即 RAM: LLM 的 Context Window 决定了其处理复杂任务的上限。
    • 预测机制: 理解“预测下一个 Token”如何导致上下文腐烂(Context Decay)。
    • 工作记忆限制: 警惕 "Lost in the Middle" 效应,优化信息在 Prompt 中的排布。

🛠️ 模块二:从提示词工程进化到上下文工程

核心目标: 学习如何通过优化 Token 配置来提升模型效能。

  • 核心视频: Context Engineering & MCP Intro
  • 上下文四大策略:
    策略 说明 场景
    写入 (Write) 将详情存入外部存储(如文件、数据库) 持久化知识
    选择 (Select) 仅加载当前步骤所需的“高信号”信息 节省 Token 消耗
    压缩 (Compress) 对冗余信息进行摘要或状态持久化 处理长文本
    隔离 (Isolate) 通过子代理架构减少 Context 污染 复杂多任务并行
  • 核心原则: 遵循 Anthropic 的 “金锁区 (Goldilocks Zone)” 原则,保持 Prompt 长度恰到好处。

🔌 模块三:MCP 协议深挖与实战搭建

核心目标: 打通 LLM 与本地/云端数据的“连接层”。

  • 核心视频:
  • 技术要点:
    • 架构理解: 客户端-服务器模型(Client-Server Model)。
    • 核心三要素: 工具 (Tools)、资源 (Resources)、提示词 (Prompts)。
    • 环境搭建:
      • 使用 Filesystem MCP 读写本地文件。
      • 使用 Google Drive / GitHub MCP 访问远程资产。
    • 调试技巧: 使用 MCP Inspector 监控调用生命周期。

⚡ 模块四:Claude Skills 与 Agent 专家构建

核心目标: 实现具备“专家经验”的持久化代理,掌握三层加载机制。

  • 核心视频:
  • 渐进式披露 (Progressive Disclosure) 架构:
    1. 元数据层 (Metadata): 始终在线的轻量目录。
    2. 指令层 (Instructions): 仅在匹配需求后才加载的详细规则。
    3. 资源层 (Resources): 按需调用的脚本 (Scripts) 与参考文件。
  • 项目级持久化: 利用 CLAUDE.md 记录项目上下文、编码标准与状态。

🚀 推荐学习工具


About

本仓库旨在整理关于大语言模型(LLM)底层逻辑、**上下文工程 (Context Engineering)** 以及 **Model Context Protocol (MCP)** 协议的核心学习资源与实战路径。

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors