提升5.69倍 高效RAG上下文压缩方法COCOM

提升5.69倍 高效RAG上下文压缩方法COCOM

GPT4、Llama等开闭大模型通过预训练的方式将海量数据积累成一个庞大的知识库,再通过文本问答的形式为用户生成各种内容,但这种方法仅局限于训练数据集,为了扩大输出范围允许模型通过检索额外的数据来丰富生成内容,RAG,知识检索增强,成为了必......
admigg 11-14
279 625 898