排序
Scaling laws在视觉自回归模型上失效了 文生图质量刷新纪录! 谷歌联合MIT发布Fluid
文章链接,https,arxiv.orgpdf2410.13863缩放法则,Scalinglaws,是大语言模型,LLMs,前所未有成功的基础,实证研究表明,在自回归模型中增加参数数量通常会显著提升性能,并在自然语言处理,NLP,任务中产生......
1 十年一剑 初识这把 的利器 NiFi
&,ldquo,现在AI和数据处理密不可分,80%的企业可以利用ApacheNiFi轻松解决复杂的数据问题,快速完成场景建设,犹如花上百来块钱在家享受一顿不亚于五星级西餐厅的法式大餐,对于全栈式的数据分析师或者数据应用的Jav......
去其形而留其意 AI架构系列
最近很多的咨询都在问我相同的问题,如何将LLM集成到垂直领域的业务场景,这里提到的场景当然这些场景不再是生成式应用,而是较为专业的领域,我翻了一篇三月份的论文,以这篇论文来回答读者的问题,其实就是要将LLM去其形,而留其意,LLM的主要战场......
在消费级GPU上奔跑的 瘦子 WordLlama
DavidMiller表示该模型的目标很明确,弥合尖端AI研究和实际应用之间的差距,他认识到,许多现有NLP模型需要大量的计算资源,并且通常局限于专有系统,从而限制了它们的可访问性,作为回应,WordLlama被设计为既轻量级又高效,使更广......
Multi
嘿,大家好!这里是一个专注于AI智能体的频道!今天来聊聊一篇挺有意思的论文,被langchain官方点名,很多评论推荐的文章!MultiMetaRAG,ImprovingRAGforMultiHopQueriesusingDatabaseF......
微信等提出多模态大语言模型EE 数据高效和计算高效全都要!中科大&
论文链接,https,arxiv.orgpdf2408.11795亮点直击本文重新审视了多模态大型语言模型中的模态对齐问题,指出了基于自注意力和交叉注意力方法的效率和效果问题,本文为EEMLLM提出了一种复合注意力机制,以提高数据和计算效率......
聊一聊生成式视角下的实体对齐
引言基于知识图谱嵌入的方法在实体对齐领域取得了巨大成功,本文以生成模型的视角重新解构了目前实体对齐方法的范式,展示了其与生成模型间的相似之处,并从理论上揭示了现有的基于生成对抗网络的方法的局限性,通过引入新的互变分自编码器,MutualVA......
参数量扩展到2.4billion 普林斯顿大学提出首个基于MoE的稀疏时序预测大模型
今天给大家介绍一篇普林斯顿大学提出的时间序列大模型工作,是首个基于MoE的百万级别参数时间序列大模型,将时序大模型参数量扩展到2.4billion的水平,在多个数据集上取得了显著优于其他时间序列大模型的效果,论文标题,TIMEMOE,BIL......
Zyphra发布Zamba2
01引言在如今竞争激烈的人工智能,AI,领域,性能和效率始终是技术发展的焦点,10月15日,Zyphra公司推出了全新的Zamba27B小型语言模型,LLM,,以其强大的计算能力和卓越的效率引起了广泛关注,Zamba27B在7B参数范围内突......
北大联合MSRA提出PoSE 用短输入模拟长样本 高效拓展LLM上下文窗口
论文题目,PoSE,EfficientContextWindowExtensionofLLMsviaPositionalSkipwiseTraining论文链接,https,arxiv.orgabs2309.10代码链接,https,git......