提示词压缩 RAG 09 技术综述 Advanced
编者按,如何最大限度地发挥LLMs的强大能力,同时还能控制其推理成本,这是当前业界研究的一个热点课题,针对这一问题,本期精心选取了一篇关于&,quot,提示词压缩&,quot,PromptCompression,......
RAG 的未来
嘿,大家好!这里是一个专注于AI智能体的频道今天给家人们分享一个新RAG技巧,随着LLMs能力的变强,检索整个文档而不是文档块已经逐渐成为RAG的新规范,但是如何从大量文档中找出正确的文档呢,最近akshaypachaar大佬,开源了一个改......
解读 多模态大模型
编者按,理想状况下,世界上的万事万物都能以文字的形式呈现,如此一来,我们似乎仅凭大语言模型,LLMs,就能完成所有任务,然而,理想很丰满,现实很骨感&,mdash,&,mdash,数据形态远不止文字一种,大多数数......
2 DeepMind推出Gemma 我们一起聊聊Google 技术报告
引言,大规模语言模型的发展与挑战近年来,大规模语言模型,LLMs,在语言理解、生成和推理方面展现出了强大的能力,随着模型规模的不断扩大,新的能力也逐渐显现,最新的大型模型不仅在推理基准测试上达到了前所未有的性能,还展示了多模态和多语言的能力......
LLaMA
大型语言模型,LLMs,如GPT4等,已经在多个领域展示了其强大的能力,能够通过对话帮助人们完成各种任务,然而,这些模型在需要语音输入或输出的场景中仍面临显著的限制,尽管最近的技术进展,如GPT4o,提升了语音交互的响应速度,但依然存在延迟......
Visual Quantization to A 模型量化技术 Guide 可视化指南
编者按,随着大语言模型,LLMs,规模的不断扩大,如何在有限的计算资源下高效部署这些模型成为了一个迫切需要解决的问题,模型量化作为一种有效的模型压缩技术,在保持模型性能的同时大大降低了计算和存储开销,因此广受关注,但对于许多人来说,模型量化......
评估角色agent与LLMs PersonaGym
一、结论写在前面论文来自卡内基梅隆大学,伊利诺伊大学芝加哥分校,佐治亚理工学院,普林斯顿大学等等论文标题,PersonaGym,EvaluatingPersonaAgentsandLLMs论文链接,https,arxiv.orgpdf2......
LLMs在自然语言规划上的基准 PLAN NATURAL
一、结论写在前面论文来自GoogleDeepMind,论文标题,NATURALPLAN,BenchmarkingLLMsonNaturalLanguagePlanning论文链接,https,arxiv.orgpdf2406.04520......
实际应用中如何选择 检索生成 RAG 长文本大模型 vs
编者按,大模型的上下文理解能力直接影响到LLMs在复杂任务和长对话中的表现,本期内容聚焦于两种主流技术,长上下文,LargeContextWindows,和检索增强生成,RAG,这两种技术各有何优势,在实际应用中,我们又该如何权衡选择,文章......
GPU 前如何计算与优化 内存需求 #AIGC创新先锋者征文大赛# LLMs 部署
,本文正在参与AI.x社区AIGC创新先锋者征文大赛,https,www.aigc2223.html编者按,想要部署大语言模型,LLMs,,却不知该如何估算所需的GPU内存,在项目预算有限的情况下,是否曾因为GPU内存估算不......