排序
Next
编者按,本文深入探讨了如何通过优化动态上下文信息,DynamicContext,来提升AIAgents的工作效率和准确性,文章首先概述了五种常见的技术策略,包括信息标识,MessageLabeling,、针对不同需求设定不同上下文、优化系统......
提升5.69倍 高效RAG上下文压缩方法COCOM
GPT4、Llama等开闭大模型通过预训练的方式将海量数据积累成一个庞大的知识库,再通过文本问答的形式为用户生成各种内容,但这种方法仅局限于训练数据集,为了扩大输出范围允许模型通过检索额外的数据来丰富生成内容,RAG,知识检索增强,成为了必......
直接扩展到无限长 谷歌Infini
谷歌又放大招了,发布下一代Transformer模型InfiniTransformer,InfiniTransformer引入了一种有效的方法,可以将基于Transformer的大型语言模型,LLM,扩展到无限长输入,而不增加内存和计算需求......
大型语言模型在医学领域的应用 探究Med
01、概述在医学领域,信息的精确性、可靠性和安全性至关重要,随着人工智能,AI,技术的发展,大型语言模型,LLM,如GPT3和BERT为医学领域带来了新的机遇,这些模型在语言处理方面的能力,使其在医学应用中显示出巨大潜力,包括知识检索、临床......
开源 OLMo AMD 1B 完全开源的 语言模型系列 AMD
01、概述在人工智能和机器学习领域,我们正经历着一场技术革命,随着技术的飞速发展,对于强大、灵活且易于获取的解决方案的需求也在不断增长,开发者、研究人员和技术爱好者在利用尖端技术时,常常受限于封闭生态系统的束缚,许多现有的语言模型,包括一些......
RAG新范式MemLong 用于长文本生成的记忆增强检索
传统的注意力机制由于时间和空间复杂度的二次方增长,以及在生成过程中键值缓存的内存消耗不断增加,限制了模型处理长文本的能力,相关的解决方案包括减少计算复杂度、改进记忆选择和引入检索增强语言建模,检索增强生成,RAG,和MemLong的记忆检索......
一文汇总 推荐系统中多任务学习的优化思路
多任务学习是推荐系统中非常常见的一个问题,推荐系统中,经常要对多个目标进行预测,比如点击率、转化率、观看时长等等,将这些任务联合学习,希望通过不同的监督信息,互相增强各自目标的拟合能力,但是同时,不同目标之间又不一定是正向关系,可能存在负......
千万不要为了节约成本而选择小模型 特别是开源模型
&,ldquo,大模型和小模型是从功能上来区分的,而不是参数上&,rdquo,我们在工作的过程中,应该多多少少都遇到过这样的事情;那就是老板为了节省成本,然后找了一些不专业或者一些漏洞百出的工具给我们用;最后的......
Mol
引言在自然语言处理,NLP,的众多应用场景中,大型语言模型,LargeLanguageModel,LLM,展现了其卓越的文本理解与生成能力,不仅在传统的文本任务上成绩斐然,更在生物学、计算化学、药物研发等跨学科领域证明了其广泛的应用潜力,尽......
具身智能体三维感知新链条 & SAM 上海AI TeleAI Lab提出多视角融合具身模型
当我们拿起一个机械手表时,从正面会看到表盘和指针,从侧面会看到表冠和表链,打开手表背面会看到复杂的齿轮和机芯,每个视角都提供了不同的信息,将这些信息综合起来才能理解操作对象的整体三维,想让机器人在现实生活中学会执行复杂任务,首先需要使机器人......