超越CLIP 视觉大模型训练新范式
OpenGVLab新作,VisionModelPretrainingonInterleavedImageTextDataviaLatentCompressionLearningGithub,https,github.comOpenGVL......
多阶段对比学习 多专家CLIP实现细粒度多模态表征学习
今天给大家介绍一篇港中文、上海AILab等机构联合发表的CLIP优化工作,构建了基于多专家网络的MoE模型,实现更细粒度的视觉表征器训练,提升下游多模态大模型论文标题,CLIPMOE,TOWARDSBUILDINGMIXTUREOFEXPE......
共1页 3条