Layer Paint:Layer Diffusion 下一代AI绘图控制技术。今天我想向大家介绍一下这两天刚刚发布的一个叫做Layer Diffusion 的东西。它的特点是使用自己的透明层生成图像。基于这项技术,许多以前不可能的操作都成为可能,使其成为一项非常实用的技术。这也是controlnet的创造者民申开发的一项新技术。 Master 已将该插件移植到comfyui,以便您可以在自己的工作流程中使用它。让我们快速浏览一下可以实现的一些主要功能。 ·第一个是生成前景照片。您可以指定一个主题,并根据提示文字或其他控制措施分割成没有背景的照片。 ·此外,分层扩散解码可用于分离alpha 并生成带有灰色图像的透明土壤掩模,并一次检索。可以基于获得的透明图像或其内置的alpha图作为输入进行分层估计,这在实际应用中非常有用。
如果您以前使用过图像融合,您会遇到经常将其他元素添加到图像中的问题,并且轮廓很容易扭曲。然而,在层内执行推导可以很好地保留前景状态。
当然,肯定有一些小瑕疵,比如狗多了一条尾巴,但总体轮廓还是很清晰的。同样,可以将图像作为背景,直接捕获并生成前景图像,无论是人还是物体,从而产生更具逻辑性的图像。在整体的基础上,还可以将融合后的图像分离出来,得到与场景相匹配的模型,或者去掉狗,得到与照片特征相匹配的背景,方便以后重复使用。请看一下。
它的实际工作原理还有很多问题,但是当我使用它们首先执行前景推理然后进行背景融合时,这样的过程实际上效果很好。但实际上,我们看到该模型仍然基于文森特图。结果会怎样呢?稍后显示的图像的细节会发生变化,并且不会超过前一个图像的100%。在实践中,与理论存在一些差异。裙子也有很多多余的部分有时会露出一半的手,但大多数时候会很稳定,但我希望它很稳定。另外,不知道以后会不会更新。这是移除渲染图像的前景的操作。你会发现它非常自然,接近可用的效果。还可以支持其他控件,例如iPadapter 和面部整形。
不过,这时候我想,既然图层控制得这么好,那是不是可以用自己创建的透明图像材质来进行推理和融合呢?事实上,当前版本的问题在于,即使你使用现成的图像并裁剪图像,背景也会很干净。细节也剪裁得非常好。
然而,生成的图像的构图将非常接近原始图像。如果您使用自己的透明度模式并使用完全相同的参数进行推理,您会看到背景非常暗,非常接近透明黑色。原画上有斑点。这表明将输入图像原样用作背景推导的前景图像存在问题,并且如果不进行特殊处理就不可能将其转换为可用的前景图像。这个时候我该怎么办呢?可以看到,标准输出有三种,一种是完整图像,完整图像是透明图像,还有一种标准输出,是带有灰色背景的灰色背景图像。
此时,您可以看到我们为裁剪后的透明图像创建了一个新的灰色背景图层,并将两个图层组合起来以达到原始的输出效果。获取灰点图像并使用灰点图像作为输入执行背景推导。这本质上与原图像的构图无关,而且人物也保存得很好。此方法允许您使用自己的图像独立导出背景,并且可以使用。当然,我把这个问题发给了易用的作者,但我不知道他最近是否会集成后台合成功能,或者他是否会提出另一个解决方案。
当然,这种方法并不完美。如果您使用相对灰色的照片,那么当与灰色背景结合时,灰色很可能会变得半透明。主体的效果也可以被减去。此外,使用该工具生成透明材质的另一个优点是,它可以与新的3D 导出工具结合生成相对干净的3D 材质。请保存到下一期。这就是这个问题的全部内容。塞伯坦,AI电商服务,商业应用定制,电商服务。
本文和图片来自网络,不代表火豚游戏立场,如若侵权请联系我们删除:https://www.huotun.com/game/646236.html