在 Agent智能体成为主流之前AI 大模型领域其实已经积累了深厚的技术底座。简单来说Agent 是把这些成熟技术“串联”起来赋予了 AI 主动规划、使用工具和记忆的能力。以下是 Agent 出现之前大模型及相关领域的核心技术栈1. 基础架构与训练范式这是大模型的“地基”决定了模型能“懂”多少知识。Transformer 架构2017 年提出的自注意力机制Self-Attention彻底取代了 RNN/LSTM让模型能并行处理长序列是当今所有大模型的基石。预训练Pre-training让模型在海量无标注数据上“自学”掌握语言规律、世界常识和逻辑推理。这是大模型“聪明”的来源。指令微调Instruction Tuning让模型学会“听懂人话”并执行指令而不仅仅是续写文本。这是 Chatbot 时代的开端。人类对齐RLHF/RLAIF通过强化学习让模型输出符合人类价值观、安全且有用。这是让模型“懂事”的关键。2. 核心交互技术在 Agent 出现前模型主要靠这些技术与人类“对话”。提示工程Prompt Engineering零样本/少样本学习Zero/Few-shot通过巧妙的提问方式让模型在不训练的情况下完成特定任务。思维链Chain-of-Thought, CoT引导模型“一步步思考”极大地提升了复杂推理如数学题、逻辑题的能力。上下文窗口Context Window从最初的几千 token 扩展到现在的十几万甚至百万 token让模型能“阅读”整本书或长文档但这依然属于被动记忆。3. 应用层关键技术在 Agent 能“自主行动”之前人们主要靠这些技术让模型“干活”。RAG检索增强生成模型本身记不住私有数据或最新新闻RAG 技术让模型先“去数据库查资料”再根据查到的内容回答问题。这解决了幻觉问题是当时最热门的技术之一。Function Calling函数调用注意这是 Agent 的前身在 Agent 流行前开发者已经学会了让模型识别意图并输出标准的 JSON 格式来调用 API比如查天气、查股票。区别当时是“人写代码控制流程模型负责调用”而 Agent 是“模型自己决定调用什么、何时调用、调用结果如何”。代码解释与生成Code Interpreter让模型写 Python 代码然后在沙箱里运行以此解决数学计算、绘图或数据处理问题。这其实是 Agent 中“工具使用”能力的雏形。4. 评估与优化基准测试Benchmarks如 MMLU、GSM8K 等用于量化评估模型的智力水平。模型蒸馏Distillation用大模型教小模型让模型在保持性能的同时体积更小适合端侧部署。总结从“被动”到“主动”的跨越在 Agent 出现之前大模型更像是一个**“博学的顾问”**你问它答你给指令它执行你给工具它调用。Agent 带来的本质变化是将上述技术特别是 Function Calling 规划 记忆整合成了一个**“闭环系统”**感知理解复杂任务。规划自己拆解步骤以前需要人写代码拆解。行动自主调用工具、检索信息。反思如果失败了自己调整策略重试以前需要人报错重启。所以Agent 并不是凭空出现的新技术而是大模型能力成熟后自然进化出的自动化执行形态。