embedding模型 Microsoft 利用LLM本身训练SoTA
大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做......
Thought Tree TOT of
今天分享一篇普林斯顿大学的一篇文章,TreeofThoughts,DeliberateProblemSolvingwithLargeLanguageModels[1],思维之树,用大型语言模型解决复杂问题,这篇工作还是非常有借鉴意义的,Op......
2023 EMNLP
一、概述Title,PromptMix,AClassBoundaryAugmentationMethodforLargeLanguageModelDistillationURL,https,arxiv.orgabs2310.14192......
LLama2详细解读
一、概述Title,Llama2,OpenFoundationandFineTunedChatModels论文地址,Llama2,OpenFoundationandFineTunedChatModels代码,https,github.c......
EMNLP 利用LLM合成数据训练模型有哪些坑 2023
大家好,我是HxShine今天我们将介绍EMNLP2023的一篇大模型,LLMs,生成文本分类任务合成数据的文章,标题是,SyntheticDataGenerationwithLargeLanguageModelsforTextClassi......
一种利用LLM提升多轮会话检索的效果的方案 LLM4CS
大家好,我是HxShine今天分享一篇人大的文章,大型语言模型知道您的会话上下文搜索意图,LargeLanguageModelsKnowYourContextualSearchIntent,APromptingFrameworkforCon......
embedding模型 利用LLM本身训练SoTA
大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做......
UC RAFT 对不相关的RAG检索结果进行建模 Berkeley
大家好,我是HxShine,今天推荐一篇UCBerkeley的一篇RAG效果优化的文章~大模型引入新的知识一般有两个途径,一种是RAG检索增强,一种是SFT,哪种方式效果比较好呢,或者说有没有一些其他的更为有效的方式呢,这篇论文介绍了一种新......
但等来了Qwen2 没有等来Qwen2.5
Qwen2又出新作Math大模型,你值得拥有,我没有等来Qwen2.5,但等来了Qwen2Math,在数学推理能力上大幅度提高,先来一张图阵阵场子,72B模型超过GPT4o、Claude3.5Sonnet和Gemini1.5Pro,Blog......
闭源模型的统治时代将迎来结束 Llama3.1系列模型正式开源 最大405B
Meta开源了Llama3.1系列模型,最大参数规模为405B,开源也是好起来了,榜单指标直逼GPT4o,开源追上闭源模型不再是梦!Llama系列模型确实是开源界的头部,真金白银砸出来的就是不一样,不过现在大家也都知道,榜单效果和真实使用效......