自定义3D编辑和资产生成 上海AI 3D版裁缝开源来袭!Tailor3D 港大&
文章链接,https,arxiv.orgpdf2407.06191github链接,https,tailor3d2024.github.ioHuggingface,https,huggingface.cospacesalexzyqiTail......
MM24 ACM
文章链接,https,arxiv.orgpdf2409.07452Github链接,https,github.comyanghb22fduHi3DOfficial亮点直击本文提出了高分辨率图像到3D模型,Hi3D,,这是一种基于视频扩散的新......
朴素 一文详解3D内容生成算法
文章链接,https,arxiv.orgpdf2402.01166近年来,人工智能生成内容,AIGC,方面取得了显著进展,涉及多种输入形式,如文本、图像、视频、音频和3D内容,其中,3D内容是最接近真实世界3D环境的视觉形式,并蕴含着巨大的......
真香合成数据集已开源 上交港中文新框架超越Instant3D 5秒完成3D生成
使用大模型合成的数据,就能显著提升3D生成能力,来自上海交大、香港中文大学等团队还真做到了,他们推出Bootstrap3D框架,结合微调的具备3D感知能力的多模态大模型,这个框架能够自动生成任意数量的高质量的多视角图片数据,助力多视图扩散模......
用2D视频扩散 3D 生成 麻省理工创新模型 视频
传统的3D视频生成主要有两种方法,一种是通过2D视频模型和静态3D场景模型的分类器指导来优化动态3D视频场景表示,不过这种对算力的需求极大,生成一个3D视频需要数小时;另一种是通过变形初始3D场景表示来实现,但需要严格的时间结构并且需调整复......
任意提示! 3D 可提示 SAM2加持泛化任意3D场景 分割研究里程碑!SAM2Point
文章链接,https,arxiv.orgpdf2408.16768在线demo,https,huggingface.cospacesZiyuGSAM2Pointcode链接,https,github.comZiyuGuo99SAM2Poin......
DreamTech联合南大和牛津发布最强3D内容生成大模型
文章链接,https,arxiv.orgpdf2405.14832github链接,https,nju3dv.github.ioprojectsDirect3D从文本和图像生成高质量的3D资产一直是一项挑战,主要是由于缺乏能够捕捉复杂几何分......
仅需1分钟 文本生成高质量3D模型
全球社交、科技巨头Meta发布了全新文生3D模型&,mdash,&,mdash,Meta3DGen,用户通过Meta3DGen仅需1分钟就能生成人物、动物、道具、服饰、工业设计等不同类型的高质量3D模型,Meta......
港理工& AI联合发布一致且高效的3D场景编辑方法 Stability OPPO&
文章链接,https,arxiv.orgpdf2406.17396项目链接,https,lslrh.github.iosyncnoise.github.io一句话亮点直击SyncNoise能够实现一致且高效的3D编辑,符合文本指令并保留编辑......
生成任意3D和4D场景!GenXD 通用3D
文章链接,https,arxiv.orgpdf2411.02319项目链接,https,genxd.github.io亮点直击设计了一个数据整理流程,从视频中获取包含可移动物体的高质量4D数据,并为30,000个视频标注了相机姿态,这个大规......