企业宣传,产品推广,广告招商,广告投放联系seowdb

RAG高级优化 检索策略探讨Fusion HyDE安排上 含代码

传统的检索方法通常依赖于对query进行语义理解(基于向量)或关键字匹配(BM25),这两种方法都有其优点和缺点。融合检索、HyDE和RAG-Fusion可以创建一个更健壮和准确的检索系统。本文将介绍三种优化方法:

高级 RAG 技术介绍

Fusion Retrieval

融合检索是一种强大的文档搜索方法,它结合了语义理解和关键字匹配的优势。通过利用基于向量和BM25的检索方法,它为信息检索任务提供了更全面、更灵活的解决方案。这种方法在概念相似性和关键字相关性都很重要的各个领域都有潜在的应用,例如学术研究、法律文档搜索或通用搜索引擎。

实现方法:

优点:

提高检索质量: 通过结合语义搜索和基于关键字的搜索,系统可以捕获概念相似度和精确的关键字匹配。 灵活性: alpha参数允许根据特定用例或查询类型调整矢量和关键字搜索之间的平衡。 健壮性: 组合方法可以有效地处理更大范围的查询,减轻单个方法的弱点。 可定制性: 该系统可以很容易地适应使用不同的矢量存储或基于关键字的检索方法。

实现图

下面的图表说明了流程(最后一部分给出了实现代码):

HyDE 是什么?

HyDE 是一种创新方法,可增强密集检索,尤其是在零样本场景中。其工作原理如下:

实现图

下面的图表说明了 HyDE 流程:

RAG-Fusion

什么是 RAG-Fusion?

RAG-Fusion 是一种先进的技术,它将检索增强生成 (RAG) 与互易秩融合 (RRF) 相结合,以提高检索信息的质量和相关性。其工作原理如下:

与传统 RAG 相比,这种方法有助于捕捉更广泛的背景和潜在的更多相关信息。

实现图

下面是说明 RAG-Fusion 工作流程的图表:

对RAG技术感兴趣,可以通过这本书全面学习。据了解这是目前第一本关于rag的书籍,很不错:

加载依赖

import osimport sysfrom dotenv import load_dotenvfrom langchain.docstore.document import Documentfrom typing import Listfrom rank_bm25 import BM25Okapiimport numpy as np

bm25召回

def create_bm25_index(documents: List[Document]) -> BM25Okapi:"""Create a BM25 index from the given documents.BM25 (Best Matching 25) is a ranking function used in information retrieval.It's based on the probabilistic retrieval framework and is an improvement over TF-IDF.Args:documents (List[Document]): List of documents to index.Returns:BM25Okapi: An index that can be used for BM25 scoring."""# Tokenize each document by splitting on whitespace# This is a simple approach and could be improved with more sophisticated tokenizationtokenized_docs = [doc.page_content.split() for doc in documents]return BM25Okapi(tokenized_docs)

混合召回

def fusion_retrieval(vectorstore, bm25, query: str, k: int = 5, alpha: float = 0.5) -> List[Document]:"""Perform fusion retrieval combining keyword-based (BM25) and vector-based search.Args:vectorstore (VectorStore): The vectorstore containing the documents.bm25 (BM25Okapi): Pre-computed BM25 index.query (str): The query string.k (int): The number of documents to retrieve.alpha (float): The weight for vector search scores (1-alpha will be the weight for BM25 scores).Returns:List[Document]: The top k documents based on the combined scores."""# Step 1: Get all documents from the vectorstoreall_docs = vectorstore.similarity_search("", k=vectorstore.index.ntotal)# Step 2: Perform BM25 searchbm25_scores = bm25.get_scores(query.split())# Step 3: Perform vector searchvector_results = vectorstore.similarity_search_with_score(query, k=len(all_docs))# Step 4: Normalize scoresvector_scores = np.array([score for _, score in vector_results])vector_scores = 1 - (vector_scores - np.min(vector_scores)) / (np.max(vector_scores) - np.min(vector_scores))bm25_scores = (bm25_scores - np.min(bm25_scores)) / (np.max(bm25_scores) - np.min(bm25_scores))# Step 5: Combine scorescombined_scores = alpha * vector_scores + (1 - alpha) * bm25_scores# Step 6: Rank documentssorted_indices = np.argsort(combined_scores)[::-1]# Step 7: Return top k documentsreturn [all_docs[i] for i in sorted_indices[:k]]

原文链接:​ ​​ ​

© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender