AI工程中面临的开放挑战
我昨天在AI工程师世界博览会上发表了开幕主题演讲,我是临时加入议程的,OpenAI在最后一刻退出了他们的演讲,我受邀在不到24小时的通知时间内准备一个20分钟的演讲!我决定重点讲述自8个月前上次AI工程师峰会以来LLM,大语言模型,领域的亮......
使用 反事实任务 评估大型语言模型
LLMs的智能本质是什么,在之前的文章中,我谈到了评估大型语言模型能力的困难,这些模型在许多基准测试中表现出色,但我们通常不知道基准测试中的测试项目,或足够相似的项目,是否出现在训练数据中,这些模型是在进行一般性的理解和推理,还是在进行A......
Scientist爆火背后的技术详解以及优缺点分析 AI
今天分享一篇最近比较热门的日本创业公司SakanaAI的一篇文章,标题为,TheAIScientist,TowardsFullyAutomatedOpenEndedScientificDiscovery,文章提出了一种名为&,......
答案竟是ta! LLM最喜欢的随机数是什么
计算机程序中,,随机,是一个常见的概念,由于生成真正的随机数过于昂贵,所以Python、Java等语言都内置了,伪随机数生成算法,虽然生成的数字序列是完全可预测的,但它看起来就像是真正的随机数,一个好的随机数生成器会以相等的概率选择给定范围......
我们要的到底是什么 Agent智能体
本文将深入探讨智能体的概念、为何&,ldquo,具有智能体特性&,rdquo,变得如此重要,以及这一趋势如何影响我们对未来技术的构想,什么是智能体,传统应用程序通常遵循预先定义好的规则和逻辑,而智能体则不同,它可......
LLM CuMo 使用协同再利用的混合专家模型来扩展多模态大型语言模型
一、结论写在前面近期,多模态大型语言模型,LLMs,的发展主要集中在通过增加文本图像配对数据和增强LLMs来提高多模态任务的性能,然而,这些扩展方法计算成本高昂,且忽视了从视觉方面有效提升模型能力的重要性,受到混合专家,MoE,在LLMs中......
在长上下文LLM的时代 RAG是否仍然必要
一、结论写在前面论文标题,InDefenseofRAGintheEraofLongContextLanguageModels论文链接,https,arxiv.orgpdf2409.01666克服早期生成式大型语言模型,LLMs,的有......
LLM训练的隐秘危机 1%的合成数据或致模型崩溃
1、LLM训练的隐秘危机,1%的合成数据或致模型崩溃在LLM快速发展的今天,一个令人担忧的现象正悄然出现&,mdash,&,mdash,模型崩溃,研究发现,即便在训练数据中仅包含1%的合成数据,也可能导致LLM模......
一个意想不到的罪魁祸首 LLM的数数能力有多弱
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读,下面是本期觉得比较有意思的论文,1、LLM的&,quot,数数&,quot,能力有多弱,一个意想不到的&,quot,罪魁祸首&a......
如何让LLM学会试错
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读,下面是本期觉得比较有意思的论文,1、如何让LLM学会&,quot,试错&,quot,2、LLM竟然学会了&,quot,自我反省&......