清华团队革新MoE架构!像搭积木一样构建大模型 提出新型类脑稀疏模块化架构
MoE架构的主要优势是利用稀疏激活的性质,将大模型拆解成若干功能模块,每次计算仅激活其中一小部分,而保持其余模块不被使用,从而大大降低了模型的计算与学习成本,能够在同等计算量的情况下产生性能优势。...
参数量扩展到2.4billion 普林斯顿大学提出首个基于MoE的稀疏时序预测大模型
今天给大家介绍一篇普林斯顿大学提出的时间序列大模型工作,是首个基于MoE的百万级别参数时间序列大模型,将时序大模型参数量扩展到2.4billion的水平,在多个数据集上取得了显著优于其他时间序列大模型的效果,论文标题,TIMEMOE,BIL......
共1页 3条