最近,Meta Research 团队提出了一种新方法——Garment3DGen,使用单个输入图像作为指导从基础网格合成3D 服装资产。
报道称,Garment3DGen是一种可以从2D图像生成3D网格服装风格化几何形状和纹理的方法,并且可以安装在参数化体上来模拟3D服装的生成和应用。
给定RGB 图像,研究团队首先使用单视图到多视图一致图像生成技术执行3D 重建。该输出网格用作3D 伪地面实况,以指导网格变形过程以使输入网格几何体变形。匹配目标。其输出几何体保留了输入几何体的结构和拓扑,并包括颈部、手臂和腰部区域的孔,因此它适合身体并具有适合物理模拟的网格质量。最后,纹理估计模块生成全局和局部一致的高保真纹理图,并忠实地捕获输入指导以渲染最终的3D 资源。
Garment3DGen 允许用户生成他们最喜欢的纹理3D 服装,而无需艺术家干预。用户可以提供文本提示来描述他们想要为其生成模拟就绪3D 资产的服装。
本文和图片来自网络,不代表火豚游戏立场,如若侵权请联系我们删除:https://www.huotun.com/game/580182.html