<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>RAG - 标签 - cfanzp学习笔记</title>
    <link>https://cfanzp008.github.io/tags/rag/</link>
    <description>RAG - 标签 - cfanzp学习笔记</description>
    <generator>Hugo -- gohugo.io</generator><language>zh-CN</language><managingEditor>cfan.zp@qq.com (cfanzp)</managingEditor>
      <webMaster>cfan.zp@qq.com (cfanzp)</webMaster><lastBuildDate>Tue, 07 Apr 2026 11:37:25 &#43;0800</lastBuildDate><atom:link href="https://cfanzp008.github.io/tags/rag/" rel="self" type="application/rss+xml" /><item>
  <title>RAG检索增强生成分类详解</title>
  <link>https://cfanzp008.github.io/rag-classification-detailed-guide/</link>
  <pubDate>Tue, 07 Apr 2026 11:37:25 &#43;0800</pubDate>
  <author>作者</author>
  <guid>https://cfanzp008.github.io/rag-classification-detailed-guide/</guid>
  <description><![CDATA[RAG检索增强生成分类详解 背景 随着大语言模型（LLM）的快速发展，如何让AI在生成内容时准确引用最新、最相关的信息成为一个核心挑战。检索增强生成（Retrieval-Augmented Generation，简称RAG）技术应运而生，它通过结合检索系统和生成模型的优势，显著提升了AI输出的准确性和可信度。本文将详细介绍RAG的分类体系，帮助读者根据不同场景选择合适的RAG方案。
RAG基本工作原理 RAG的核心思想是将用户查询与外部知识库相结合，其工作流程主要包括以下几个环节：
文档处理：将原始文档切分为Chunks（文本块），每个chunk经过Embedding模型转换为向量 向量存储：将向量存入向量数据库（如Milvus、Pinecone、Chroma等） 语义检索：用户查询同样被转换为向量，在向量数据库中检索最相关的Top-K个chunks 增强生成：将检索到的相关文档作为上下文，连同用户问题一起发送给LLM生成回答 1 用户问题 → 向量化 → 向量数据库检索 → 上下文组装 → LLM生成 → 回答输出 RAG分类体系 根据技术复杂度和应用场景，RAG可以分为以下几类：
1. 简单RAG（Naive RAG） 简单RAG是最基础的实现方式，采用&quot;检索-拼接-生成&quot;的直线路径。
工作流程：
用户输入查询 一次性从向量数据库检索Top-K相关文档 将检索结果与查询拼接后发送给LLM 优点：架构简单、实现成本低、延迟低
缺点：当检索结果不准确或包含噪声时，生成质量会明显下降；无法处理复杂的多跳推理问题
适用场景：文档问答、知识库查询、结构简单的FAQ系统
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 # 简单RAG实现示例 from langchain_ollama import OllamaLLM from langchain_chroma import Chroma from langchain_ollama import OllamaEmbeddings # 初始化组件 llm = OllamaLLM(model=&#34;qwen2.]]></description>
</item>
<item>
  <title>RAG 深度解读：检索增强生成技术原理与实践</title>
  <link>https://cfanzp008.github.io/rag-deep-analysis/</link>
  <pubDate>Thu, 02 Apr 2026 10:00:00 &#43;0800</pubDate>
  <author>作者</author>
  <guid>https://cfanzp008.github.io/rag-deep-analysis/</guid>
  <description><![CDATA[RAG 深度解读：检索增强生成技术原理与实践 背景与问题 大型语言模型（LLM）在生成代码、总结文章、回答问题等方面表现出色，但存在一个根本性限制：它们只知道训练数据中的信息。
训练数据是有限的，且存在以下问题：
知识截止日期（Knowledge Cutoff）：模型的知识停留在训练数据收集的时间点，无法获取实时信息 领域知识缺失：通用模型缺乏特定领域的专业知识，如企业内部文档、产品规格等 幻觉问题（Hallucination）：模型可能生成看似合理但实际错误的内容 训练成本高昂：想让模型学习新知识，需要重新训练或微调，成本巨大 RAG（Retrieval-Augmented Generation，检索增强生成）正是为解决这些问题而设计的架构。
什么是 RAG RAG 是一种优化 LLM 性能的架构，通过连接外部知识库，让模型在生成响应时能够访问最新的、领域特定的、权威的数据。
RAG 这个名称本身就描述了它的工作流程：
Retrieval（检索）：从外部知识库查询相关信息 Augmented（增强）：将检索到的信息添加到提示中作为上下文 Generation（生成）：基于增强后的提示生成最终响应 RAG 核心流程 RAG 系统遵循五阶段流程：
1 用户提交问题 → 检索知识库 → 返回相关信息 → 构建增强提示 → LLM生成响应 阶段详解 用户提交提示（Prompt）：用户提出问题或请求 信息检索（Retrieval）：检索模型查询知识库，获取相关数据 信息返回：从知识库返回相关信息到集成层 提示增强（Augmentation）：RAG 系统将原始用户提示与检索到的上下文结合，构建增强提示 生成响应（Generation）：LLM 基于增强后的提示生成最终响应，返回给用户 RAG 系统核心组件 RAG 系统包含四个主要组件：
1. 知识库（Knowledge Base） 知识库是 RAG 系统的外部数据仓库，可以包含多种数据源：
PDF 文档 文本文件、指南 网站内容 音频文件 数据库记录 知识库中的数据需要经过**向量化（Embedding）**处理，转换为数值向量表示，才能进行语义搜索。
2. 检索器（Retriever） 检索器是执行语义搜索的 AI 模型，其工作流程：
将用户查询转换为向量表示（使用相同的嵌入模型） 在知识库中搜索相似的向量 返回最相关的文档片段 3.]]></description>
</item>
</channel>
</rss>
