成年人当然是全都要 小孩子才做选择 大模型微调哪家好

成年人当然是全都要 小孩子才做选择 大模型微调哪家好

一、概述title,UNIPELT,AUnifiedFrameworkforParameterEfficientLanguageModelTuning论文地址,https,arxiv.orgabs2110.07577代码,https,git......
admigg 11-14
930 384 694
Step by Let Verify s OpenAI Step详细解读

Step by Let Verify s OpenAI Step详细解读

一、概述title,Let,sVerifyStepbyStep论文地址,https,arxiv.orgabs2305.20050代码,https,github.comopenaiprm800k1.1Motivation近期大模型的出现极大的......
admigg 11-14
639 279 687
embedding模型 Microsoft 利用LLM本身训练SoTA

embedding模型 Microsoft 利用LLM本身训练SoTA

大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做......
admigg 11-14
265 136 572
Thought Tree TOT of

Thought Tree TOT of

今天分享一篇普林斯顿大学的一篇文章,TreeofThoughts,DeliberateProblemSolvingwithLargeLanguageModels[1],思维之树,用大型语言模型解决复杂问题,这篇工作还是非常有借鉴意义的,Op......
admigg 11-14
929 202 766
2023 EMNLP

2023 EMNLP

一、概述Title,PromptMix,AClassBoundaryAugmentationMethodforLargeLanguageModelDistillationURL,​​https,arxiv.orgabs2310.14192​......
admigg 11-14
663 623 371
LLama2详细解读

LLama2详细解读

一、概述Title,Llama2,OpenFoundationandFineTunedChatModels论文地址,Llama2,OpenFoundationandFineTunedChatModels代码,​​https,github.c......
admigg 11-14
611 626 582
EMNLP 利用LLM合成数据训练模型有哪些坑 2023

EMNLP 利用LLM合成数据训练模型有哪些坑 2023

大家好,我是HxShine今天我们将介绍EMNLP2023的一篇大模型,LLMs,生成文本分类任务合成数据的文章,标题是,SyntheticDataGenerationwithLargeLanguageModelsforTextClassi......
admigg 11-14
121 230 218
一种利用LLM提升多轮会话检索的效果的方案 LLM4CS

一种利用LLM提升多轮会话检索的效果的方案 LLM4CS

大家好,我是HxShine今天分享一篇人大的文章,大型语言模型知道您的会话上下文搜索意图,LargeLanguageModelsKnowYourContextualSearchIntent,APromptingFrameworkforCon......
admigg 11-14
534 373 335
embedding模型 利用LLM本身训练SoTA

embedding模型 利用LLM本身训练SoTA

大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做......
admigg 11-14
322 256 542
UC RAFT 对不相关的RAG检索结果进行建模 Berkeley

UC RAFT 对不相关的RAG检索结果进行建模 Berkeley

大家好,我是HxShine,今天推荐一篇UCBerkeley的一篇RAG效果优化的文章~大模型引入新的知识一般有两个途径,一种是RAG检索增强,一种是SFT,哪种方式效果比较好呢,或者说有没有一些其他的更为有效的方式呢,这篇论文介绍了一种新......
admigg 11-14
204 650 331