收藏必备!小白程序员轻松掌握RAG大模型,让你的AI秒懂公司文档!
RAG 是什么一句话类比RAGRetrieval-Augmented Generation 先检索再生成。类比RAG 就像开卷考试。模型本身是那个能写文章的学生知识库是那一堆参考书。考试时不靠死记硬背而是先翻书找到相关段落再用自己的理解写答案。没有 RAG 的 AI 是闭卷考——它只能答它训练时见过的内容。为什么不直接 Fine-tuning这是大家最常问的问题。Fine-tuning 训练的是「风格和能力」不是「知识」。维度RAGFine-tuning知识更新改向量库秒级生效重新训练几小时到几天成本低API 向量DB高GPU 算力幻觉风险可溯源能引用原文模型可能「记错」适用场景私有知识、频繁更新专业语气、特定格式输出结论知识库类需求首选 RAG想让模型说话更像你们品牌才考虑 Fine-tuning。RAG 完整流程拆解RAG 分两个阶段索引阶段离线和查询阶段在线。索引阶段一次性/更新时 文档 → 分块(Chunking) → 向量化(Embedding) → 存入向量数据库 查询阶段每次对话 用户提问 → 向量化 → 相似度检索 → 取出 Top-K 段落 → 拼进 Prompt → LLM 生成回答第一关文档分块Chunking分块策略直接决定检索质量但大多数人第一次都搞错了。固定长度分块最常见但有问题fromimport# 最常见写法按字符数切分1000# 每块最多1000字符200# 相邻块重叠200字符防止语义断裂\n\n\n。 ❌ 常见错误chunk_overlap0→ 一个完整句子被切成两半检索时两半都不完整模型无法理解✅ 正确做法chunk_overlap设为chunk_size的 10%-20%→ 语义完整相邻块有重叠保护语义分块效果更好稍复杂fromimportfromimport# 按语义相似度自动切分不按字符数硬切percentile# 超过85%相似度阈值才切分85# 输出的每个 chunk 语义上都是完整的✅ 语义分块在技术文档、法律合同这类强结构文本效果明显更好❌ 但速度更慢每次都要调用 Embedding适合离线批量处理第二关向量化EmbeddingEmbedding 是把文本变成一串数字向量语义相近的文本向量距离更近。类比把每段文字映射到一个 1536 维的空间里「苹果手机」和「iPhone」在这个空间里距离很近和「橙子」距离远。选 Embedding 模型# 方案AOpenAI text-embedding-3-small性价比最高推荐fromimporttext-embedding-3-small# 1536维比 ada-002 便宜5倍# modeltext-embedding-3-large, # 精度更高贵3倍一般用不到# 方案B本地模型零成本但精度稍差fromimportBAAI/bge-m3# 多语言中文效果好devicecpu# 测试一下两段近义句向量距离应该很小如何重置密码忘记密码怎么办# 这两个向量的余弦相似度应该 0.9关键原则索引时用什么 Embedding查询时必须用同一个——不能混用。向量数据库选型数据库适用场景特点Chroma本地开发、原型验证零配置纯 PythonQdrant生产环境推荐性能好支持过滤Pinecone云服务快速上线全托管按量付费pgvector已有 PostgreSQL不用新增基础设施# Chroma 本地版开发用fromimport./chroma_db# 本地持久化my_knowledge_base# Qdrant 生产版fromimportimporthttp://localhost:6333my_knowledge_base第三关检索策略大多数 RAG 系统检索效果差不是因为 Embedding 模型不好而是检索策略太简单。基础检索相似度搜索# 最基础返回最相似的4个chunk如何申请年假4# 带分数能看到每个 chunk 的相似度0-1越高越相关如何申请年假4forinprintf相似度: {score:.3f} | 内容: {doc.page_content[:50]}...进阶检索MMR最大边际相关性❌ 纯相似度搜索的问题Top-4 可能都是在说同一件事高度重复✅ MMR 在保证相关性的同时最大化结果多样性# MMR 检索相关 不重复如何申请年假4# 返回4个20# 先取20个候选再从中选4个最多样的0.7# 0最多样1最相关0.5-0.7 效果最好混合检索向量 关键词生产推荐fromimportfromimport# 关键词检索BM25对专有名词、型号特别有效4# 向量检索k4# 混合各取 50%0.50.5# 可调专有名词多时提高 BM25 权重iPhone 14 的电池容量是多少# BM25 精准匹配「iPhone 14」向量找到语义相关段落两者互补第四关完整 RAG Chain 搭建把前面所有环节串起来搭一个可以直接上生产的 RAG Chainfromimportfromimportfromimportfromimportfromimport# 1. 初始化组件gpt-4o-mini0text-embedding-3-small./chroma_dbmy_knowledge_basemmrk4fetch_k20# 2. RAG Prompt关键要求模型基于上下文回答你是一个专业的知识库助手。请根据以下检索到的上下文回答用户问题。**规则**- 只基于提供的上下文回答不要编造- 如果上下文中没有相关信息直接说「根据现有资料我找不到这个问题的答案」- 回答要简洁直接引用原文时用引号**检索到的上下文**{context}**用户问题**{question}# 3. 格式化检索结果多个 chunk 拼在一起defformat_docsdocsreturn\n\n---\n\nf[来源: {doc.metadata.get(source, 未知)}]\n{doc.page_content}forin# 4. 组装 ChainLCEL 写法context# 检索 → 格式化question# 问题直接传入# 5. 使用我们公司的年假政策是什么print带来源引用的版本fromimport# 同时返回答案和来源文档answersource_documents# 保留原始 chunk年假怎么申请print答案answerprint\n引用来源forinsource_documentsprintf - {doc.metadata.get(source, 未知)}: {doc.page_content[:80]}...第五关文档入库工程化把文档批量处理入库这才是生产中最麻烦的部分importfromimportfromimportfromimportdefload_documentsdocs_dir: strlist支持 PDF、Word、TXT、Markdown 混合入库.pdf.docx.txt.mdforin*ifinstr# 给每个 chunk 打上来源标记forinsourcefile_pathstrprintf✅ 已加载: {file_path.name} ({len(docs)} 段)returndefbuild_knowledge_basedocs_dir: str, persist_dir: str一键构建知识库# 加载文档printf\n共加载 {len(raw_docs)} 个文档片段# 分块800150\n\n\n。printf分块后共 {len(chunks)} 个 chunk# 向量化入库分批处理避免 API 限流text-embedding-3-small# 批量处理每批 100 个100Noneforinrange0lenifisNoneknowledge_baseelseprintf进度: {min(ibatch_size, len(chunks))}/{len(chunks)}printf\n✅ 知识库构建完成共 {len(chunks)} 个向量return# 使用./docs./chroma_db常见坑踩过才知道坑1Chunk 太大检索噪音多❌chunk_size3000一个 chunk 包含了太多无关内容检索出来的段落「离题」✅ 推荐chunk_size600-1000回答简单问题用小 chunk需要完整上下文时用k6坑2相同文档重复入库# ❌ 每次启动都重新入库向量越来越多# ✅ 检查是否已有数据有就直接加载ifandprint加载已有向量库elseprint新建向量库坑3提问语言和文档语言不一致❌ 文档是中文用英文查询 → 相似度打分错乱✅ 用多语言 EmbeddingBAAI/bge-m3或在检索前把提问翻译成文档语言坑4Top-K 太少关键信息检索不到❌k2覆盖太少问题涉及多个段落时漏答✅ 生产环境推荐k4~6token 允许的情况下宁多不少坑5Prompt 没有「只基于上下文回答」约束❌ 没加限制 → 模型结合自己训练知识和检索结果混答无法区分哪些是你的文档里有的✅ 明确写「只基于以下上下文没有就说没有」——这一句能把幻觉降低 80%发布前自查清单Embedding 模型索引和查询时一致chunk_overlap≥chunk_size的 10%每个文档 chunk 打了来源 metadataPrompt 中有「只基于上下文」约束检索数量k≥ 4重复入库已做幂等检查混合检索BM25 向量用于专有名词多的场景总结–这篇我们从零搭了一套完整的 RAG 私有知识库方案分块决定上限chunk_size800overlap150语义分块效果比固定分块好 20-30%Embedding 选型开发用text-embedding-3-small中文内容用bge-m3检索策略分层基础用相似度去重用 MMR专有名词多用混合检索Prompt 约束是关键「只基于上下文」这一句能把幻觉降低 80%工程化必做入库幂等检查文档打 metadata 来源批量处理防限流理解 RAG 的核心是检索质量 生成质量——答案已经在文档里了问题是能不能找对。普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事02适学人群应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】