泡温泉的英文翻译英语怎么说-remote control
2023年4月2日发(作者:现代文阅读答题技巧)
基于图像的虚拟试⾐:ImageBasedVirtualTry-OnNetworkfromU。。。
摘要
本⽂提出了⼀种新的基于图像的虚拟试穿⽅法(Outfit-VITON),该⽅法可帮助可视化从各种参考图像中选择的⾐物组成如何在查询图像
中的⼈⾝上形成凝聚⼒的⾐服。我们的算法具有两个独特的属性。⾸先,它不昂贵,因为它只需要⼀⼤套穿着各种服装的⼈的(独⽴的)
(真实的和分类的)图像(没有真实的3D信息)。训练阶段只需要单个图像,⽽⽆需⼿动创建图像对,其中⼀个图像显⽰穿着特定服装的
⼈,另⼀个图像仅显⽰相同类别的服装。其次,它可以合成构成⼀个连贯服装的多件服装的图像。它可以控制最终服装中所呈现服装的类
型。经过训练后,我们的⽅法便可以从穿着⾐服的⼈体模型的多个图像中合成出具有凝聚⼒的服装,同时使服装适合查询⼈员的⾝体形状和
姿势。在线优化步骤负责处理精细的细每逢佳节倍思亲的上一句 节,例如复杂的纹理和徽标。与现有的最新⽅法相⽐,对包含较⼤形状和样式变化的图像数据集进
⾏定量和定性评估显⽰出更⾼的准确性,尤其是在处理⾼度详细的服装时。
介绍
在美国,在线服装销售在服装和配饰销售总额中所占的份额以⽐其他任何电依据的近义词 ⼦商务部门更红楼梦小说 快的速度增长。在线服装购物可让您在家中舒适⾃
在地购物,提供多种选择的商品以及使⽤最新产品,从⽽为购物提供了便利。但是,在线购物⽆法进⾏物理试穿,从⽽限制了客户对服装实
际外观的理解。这⼀关键局限性促进了虚拟试⾐间的发展,在虚拟试⾐间中,将综合⽣成穿着所选服装的顾客的图像,以帮助⽐较和选择最
理想的外观。
3D⽅法
⽤于合成穿着者的逼真的图像的常规⽅法依赖于从深度相机或多个2D图像构建的详细3D模型。3D模型可以在⼏何和物理约束下实现逼真
的服装模拟,并可以精确控制观看⽅向,照明,姿势和纹理。然⽽,它们在数据捕获、注释、计算以及在某些情况下对专⽤设备(如3D传
感器)的需要⽅⾯产⽣了巨⼤的成本。这些巨⼤的成本阻碍了向数百万客户和成⾐的扩展。
条件图像⽣成⽅法
最近,更经济的解决⽅案建议将虚拟试戴问题公式化为有条件的图像⽣成问题。这些⽅法从两个输⼊图像中⽣成⼈们穿着所选服装的逼真的
图像:⼀个显⽰⼈物,另⼀个被称为店内服装,仅显⽰服装。根据使⽤的特性的近义词 训练数据,这些⽅法可以分为两个主要类别:(1)配对数据,单
服装⽅法,该⽅法使⽤⼀组训练成对的图像对来描述多幅图像中的同⼀件⾐服。例如,有和没有⼈穿⾐服的图像对(例如[10、30]),或
以相同的⼈体模型在两个不同姿势下呈现特定服装的图像对。(2)将训练数据中的整个服装(由多件服装组成)视为⼀个实体的单数据,
多服装⽅法(例如[25])。两种⽅法都有两个主要局限性:⾸先,它们不允许客户选择多种服装(例如衬衫,裙⼦,夹克和帽⼦),然后将
它们组合在⼀起以适合客户的⾝体。其次,他们接受了⼏乎难以⼤规模收集的数据培训。在成对数据,单件服装图像的情况下,很难为每种
可能的服装收集⼏对。对于单数据,多服装图像,很难收集到⾜以覆盖所有可能服装组合的实例。
新奇
在本⽂中,我们提出了⼀种新的基于图像的虚拟试戴法,该⽅法是:1)提供廉价的数据收集和训练过程,其中包括仅使⽤单个2D训练图
像,该图像⽐成对的训练图像或3D数据更容易进⾏⼤规模收集。2)通过合成构成⼀个整体的服装的多件服装的图像,提供⾼级的虚拟试
穿体验(图2),并使⽤户能够控制最终服装中渲染的服装的类型。3)引⼊了⽤于虚拟试穿的在线优化功能,该功能可以准确地综合精细
的服装功能,例如纹理,徽标和刺绣。我们对包含较⼤形状和样式变化的图像集评估提出的⽅法。定量和定性结果均表明我们的⽅法⽐以
前的⽅法取得了更好的结果。
相关⼯作
⽣成对抗⽹络
⽣成对抗⽹络(GAN)[7,27]是⽣成模型,经过训练可以合成与原始训练数据没有区别的真实样本。GAN在图像⽣成[24,17]和操纵
[16]中已显⽰出令⼈⿎舞的结果。但是,最初的GAN公式缺乏控制输出的有效机制。
有条件的GAN(cGAN)[21]试图通过在⽣成的⽰例上添加约束来解决此问题。GAN中使⽤的约束可以采⽤类别标签[1],⽂本[36],姿势
[19]和属性[29]的形式(例如,张开/闭合,胡须/⽆胡须,眼镜/⽆眼镜,性别)。Isola等[13]提出了⼀种称为pix2pix的图像到图像转换
⽹络,该⽹络将图像从⼀个域映射到另⼀个域(例如,草图到照⽚,分割到照⽚)。这种跨域关系已在图像⽣成中显⽰出令⼈⿎舞的结果。
Wang等⼈的pix2pixHD[31]从单个分割图⽣成多个⾼清输出。它通过添加⾃动编码器来实现,该编码器学习可限制GAN并⽀持更⾼级别
的本地控制的特征图。最近,[23]建议使⽤空间⾃适应的归⼀化层,该层在图像级别⽽不是局部地对纹理进⾏编码。另外,已经使⽤GAN
证明了图像的组成[18,35],其中使⽤⼏何变换将前景图像的内容传输到背景图像,从⽽⽣成具有⾃然外观的图像。最近已经证明在测试
阶段可以对GAN进⾏微调[34],⽤于⾯部重现。
虚拟试穿
深度神经⽹络的最新进展激发了仅使⽤2D图像⽽不使⽤任何3D信息的⽅法。例如,VITON[10]⽅法使⽤形状上下⽂[2]来确定如何通过构
图阶段然后进⾏⼏何变形来使服装图像变形以适合查询⼈的⼏何形状。CP-VITON[30]使⽤卷积⼏何匹配器[26]确定⼏何变形函数。
WUTON[14]是这项⼯作的扩展,它使⽤对抗性损失进⾏更⾃然,更详细的合成,⽽⽆需合成阶段。PIVTONS[4]扩展了[10]⽤于姿势不
变的服装,⽽MG-VTON[5]扩展了⽤于多姿势虚拟试穿。原始VITON[10]的所有不同变体都需要⼀组成对的训练图像,即在有或没有⼈
体模型的情况下都可以捕获每件服装。因为获得这样的配对图像⾮常费⼒,所以这限制了可以收集训练数据的规模。同样,在测试过程中,
只能将服装的⽬录(店内)图像传输到⽤户的查询图像中。在[32]中,GAN⽤于将参考服装变形到查询⼈的图像上。不需要⽬录服装图
像,但是仍然需要在多个姿势下穿着相同服装的同⼀个⼈的相应对。上述⼯作仅涉及上⾝服装的转换(除[4]外,仅适⽤于鞋⼦)。
Sangwoo等⼈[22]应⽤分段蒙版,以控制⽣成的形状,例如将裤⼦转换为裙⼦。然⽽,在这种情况下,仅控制平移⾐服的形状。此外,每
个形状转换任务都需要其⾃⼰的专⽤⽹络。[33]的最新⼯作⽣成了穿着多件⾐服的⼈的图像。但是,⽣成的⼈体模型仅由姿势控制,⽽不是
由⾝体形状或外观控制。桂林独秀峰王城景区图片 另外,该算法需要⼀套完整的成对图像的训练集,这尤其难以⼤规模获得。[25](SwapNet)的⼯作使⽤GAN在
两个查询图像之间交换整个服装。它有两个主要阶段。最初,它会⽣成查询⼈对参考服装的翘曲分割,然后覆盖服装纹理。此⽅法使⽤⾃
我监督来学习形状和纹理转移,并且不需要成对的训练集。但是,它在装配级别⽽不是服装级别运⾏,因此缺乏可组合性。[9,12]的最新
著作还通过形状和纹理⽣成的两个阶段来⽣成时尚图像。
装备虚拟试穿(O-VITON)
我们的系统使⽤形状和样式各异的穿着⾐服的⼈的多个参考图像。⽤户可以在这些参考图像中选择服装,以接收算法⽣成的服装输出,该输
出显⽰了穿着这些选定服装的个⼈图像(查询)的真实图像。
pix2pixHD⽅法[31]成功地完成了图像到图像的翻译任务,启发了我们解决这⼀难题的⽅法。类似于此⽅法,我们的⽣成器G以语义分割图
和编码器E⽣成的外观图为条件。⾃动编码器为分割图中的每个语义区域分配⼀个代表区域外观的低维特征向量。这些基于外观的功能使您
可以控制输出图像的外观,并解决不使⽤不使⽤它们的条件GAN经常出现的多样性不⾜的问题。
我们的虚拟试穿合成过程(图2)包括三个主要步骤:(1)⽣成分割图,该图始终将所选参考服装的轮廓(形状)与查询图像的分割图结
合在⼀起。(2)⽣成在查询图像中显⽰该⼈穿着从参考图像中选择的服装的⼈的真实感图像。(3)在线优化以优化最终输出图像的外
观。
我们将更详细地描述我们的系统:第3.1节描述了前馈综合管道及其输⼊,组件和输出。第3.2节描述了形状和外观⽹络的训练过程,第3.3
节描述了⽤于微调输出图像的在线优化。
前馈⽣成
系统输⼊
我们系统的输⼊包括⼀个HWRGB查询图像,该图像有⼀个希望试穿各种服装的⼈。这些服装由⼀组M个附加参考RGB图像
表⽰,其中包含分辨率与查询图像相同的各种服装。请注意,这些图像可以是穿着不同⾐服的⼈的⾃然图像,也
可以是显⽰单个⾐物的⽬录图像。另外,参考服装M的数量可以变化。为了获得时尚图像的分割图,我们训练了⼀个PSP[37]语义分割⽹
络S,该⽹络输出⼤⼩为HWDc的,其中xm中的每个像素都使⽤⼀热编码标记为Dc类之⼀。换句话
说,s(i,j,c)=1表⽰像素(i,j)被标记为c类。类别可以是⾝体部位,例如⾯部/右臂,也可以是服装类型,例如上⾐,裤⼦,夹克或
背景。我们使⽤分割⽹络S来计算查询图像的分割图和参考图像(1≤m≤M,)的个分割图。类似地,捕获⼈的姿势和⾝体形状的
DensePose⽹络[8]⽤于估计⼤⼩为HWDb的⾝体模型。
形状⽣成⽹络组件
形状⽣成⽹络负责上述第⼀步:它将查询图像中⼈的⾝体模型b与表⽰的所选服装的形状结合起来(图2绿⾊盒⼦)。如第
3.1.1节所述,语义分割图为中的每个像素分配⼀个热⽮量表⽰。因此,通过深度尺⼨的的WH1切⽚提供了
⼆进制掩码,它表⽰映射到图像中的c类的像素区域。形状⾃动编码器和随后的舒服反义词 局部合并步骤将此蒙版映射到84Ds尺
⼨的形状特征切⽚。即使图像m中不存在类型c的服装,Dc可能的分割类别的每个类别c仍由表⽰。即,它
将在中输⼊零值蒙版。
当⽤户希望使⽤参考图像m中类型为c的⾐服为查询图像中的⼈穿⾐服时,我们只需将替换为的相应形状特征切⽚即可,⽽⽆需考虑
⾐服c是否存在于查询图像与否。我们通过沿深度维度进⾏级联来合并所有服装类型的形状特征切⽚,从⽽⽣成84DsDc尺⼨的粗略形
状特征图。我们将表⽰为的升级版本,并将其扩展为HWDsDc维度。本质上,仅通过将参考图像的相应形状特征切⽚替换为参
考图像的形状特征切⽚即可完成将不同服装类型组合为查询图像的操作。
形状特征图和⼈体模型b被输⼊到形状⽣成器⽹络中,以⽣成穿着所选参考服装的查询⼈的新的变换后的
分割图。
x0
(x,x,...,x)
12Mx0
s=mS(x)mxm
s0sm
b=B(x)0
x0{s}m
m=1
M
smxms(⋅,⋅,c)msm
Mm,cxmEshape
e=m,c
s
E(M)shapem,cem,c
s
EshapeMm,c
e0,c
s
em,c
s
eseses
esGshapes=yG(b,e)shape
s
ey
外观⽣成⽹络组件
我们的外观⽣成⽹络中的第⼀个模块(图2蓝⾊框)受到[31]的启发,并获取RGB图像及其相应的分割图,并应⽤外观⾃动
编码器。外观⾃动编码器的输出表⽰为HWDt尺⼨的。通过根据掩码进⾏区域平均池化,我们形成了描述
该区域外观的Dt维向量e^t_{m,c}。最后,通过将外观特征向量,c向其对应的由掩模标记的区域进⾏区域⼴播来获得外观特征
图。当⽤户从图像中选择类型为c的服装时,仅需要在产⽣外观特征的区域⼴播之前,⽤服装图像的外观⽮量替换查询图像
中的外观⽮量即可。
外观⽣成器Gapp将前⼀形状⽣成阶段⽣成的分割图作为输⼊,并将外观特征图作为条件,并⽣成表⽰前馈虚拟试戴输出
。
训练阶段
形状和外观代⽹络采⽤单输⼊图像的训练集相同的⼈在不同的姿势和服装培训的独⽴(图3)。在每种训练⽅案中,发⽣器,鉴别器和⾃动
编码器都是联合训练的。
外观训练阶段
对于图像到图像的翻译任务,我们使⽤类似于[31]的条件GAN(cGAN)⽅法。在cGAN框架中,训练过程旨在优化Minimax损失[7],该
损失代表了⽣成器G和鉴别器D竞争的游戏。给定训练图像x,⽣成器将接收到相应的分割图S(x)和外观特征图
作为条件。注意,在训练阶段,从相同的输⼊图像x提取分割和外观特征图,⽽在测试阶段,从多个图像计算分割和
外观特征图。我们将在第3.1节中描述此步骤。⽣成器旨在合成,当尝试将⽣成的输出与原始输⼊(例如x)分离时,
这会混淆鉴别器。鉴别器也由分割图S(x)的条件。如[31]中所述,⽣成器和鉴别器旨在最⼩化LSGAN损耗[20]。为简便起见,我们将在
以下⽅程式中从外观⽹络组件中省略应⽤程序下标。
⽣成器Gapp的体系结构类似于[15,31]使⽤的体系结构,由卷积层,残差块和转置的卷积层组成,⽤于上采样。鉴别器Dapp的体系结构
是PatchGAN[13]⽹络,如[31]中所述,该⽹络已应⽤于多个图像⽐例。鉴别器的多层结构使其既可以在粗略的范围内以较⼤的接收场⼯
作,从⽽获得更全⾯的视野,⼜可以在细微的范围内进⾏操作,以测量细微的细节。E的体系结构是标准的卷积⾃动编码器⽹络。
(x,s)mm
E(x,s)app
mmem
t
Mm,c
em
t
Mm,c
em
t
xmetem,c
t
e0,c
t
syety=
Gapp(s,e)yt
e(x)=t
E(x,S(x))app
G(S(x),e(x))app
t
除了对抗性损失外,[31]还提出了⼀种额外的特征匹配损失,以稳定训练并迫使其遵循多个尺度上的⾃然图像统计数据。在我们的实现中,
我们添加了特征匹配损失,如[15]所述,该特征匹配损失可直接⽐较使⽤预训练的感知⽹络(VGG-19)计算的⽣成的图像激活和真实的图
像激活。设为跨通道的层激活的⽮量形式,尺⼨为。我们使⽤超参数来确定层l对损耗的贡献。此损失定义为:
我们将这些损失合并在⼀起,以获得外观⽣成⽹络的损失函数:
形状训练阶段
⽤于训练形状⽣成⽹络的数据与⽤于外观⽣成⽹络的训练数据相同,我们对该⽹络也使⽤类似的条件GAN损失。类似于解耦从形状的外观,
在3.2.1所描述的,我们希望在测试阶段从参考图像与查询图像解耦从⾐服的轮廓的⾝体形状和姿势以传递服装。我们通过使⽤随机仿射变
换为s=S(x)的每个切⽚s(,,c)应⽤不同的空间扰动来⿎励这种情况。这是受到SwapNet[25]中描述的⾃我监督的启发。另
外,我们对Eshape的输出应⽤平均池,以将HWDs尺⼨映射到84Ds尺⼨。这是针对测试阶段完成的,该阶段需要对姿势和⾝体
形状均不变的形状编码。Gshape和鉴别器Dshape的损失函数与(3)类似,⽣成器以输⼊图像的形状特征⽽不是外观特征映射
为条件。鉴别器旨在将s=S(x)与分开。将(2)中的特征长安第一美人 匹配损失替换为交叉熵损失组件感叹岁月催人老的诗句 ,该组件
⽐较语义分割图的标签。
在线优化
lClH⋅W1ll
e(x)set
sy=G(S(x),e)shape
sLCE
外观⽹络(⾃动编码器和⽣成器)的前馈操作有两个主要限制。⾸先,具有不重复图案的较不频繁穿着的服装更具挑战性,这是由于它们的
不规则图案和训练集中的减少。图6显⽰了我们训练集中各种纹理属性的频率。最常见的图案是实⼼的(⽆特征的纹理)。其他常见的纹理
(例如徽标,条纹和花卉图案)⾮常多样化,并且属性分布具有其他不常见的⾮重复图案相对较长的尾巴。这构成了⼀项艰巨的学习任务,
其中神经⽹络旨在准确⽣成训练集中稀缺的模式。第⼆,⽆论训练集有多⼤,它都永远不会⾜够⼤以覆盖所有可能的服装样式和形状变化。
因此,我们提出了⼀种受样式转换启发的在线优化⽅法[6]。该优化在测试阶段微调外观⽹络,以将服装从参考服装合成为查询图像。最
初,我们使⽤3.1.3中描述的前馈出现⽹络的参数。然后,我们微调发⽣器Gapp(为简便起见,⽤G表⽰),以通过最⼤程度地减少参考损
耗,从参考图像更好地重建服装。正式地,给定参考服装,我们使⽤由给出的其对应区域⼆进制掩码来定位参考损耗(3):
因此,我们的在线损失将参考服装损失(4)和查询损失(5)结合在⼀起:
注意,在线优化阶段分别应⽤于每件参考服装(另请参见图5)。由于查询图像中的所有区域均未在空间上对齐,因此我们丢弃了特征匹配
损失(2)的相应值。
xmsmMm,c
实验
我们的实验是在从亚马逊商品⽬录中删除的各种服装和姿势的⼈(男性和⼥性)数据集上进⾏的。数据集被分为训练集和测试集,分别包含
45K和7K图像。将所有图像调整为固定的5122《借夫》未删减完整版 56像素⼤⼩。我们进⾏了⼀些实验,以合成单个项⽬(上⾐,裤⼦,裙⼦,夹克和连⾐
裙),以及将成对的项⽬合成在⼀起(即上⾐和裤⼦)。
实施细节
设定值
我们⽤于⾃动编码器Eshape,Eapp,⽣成器Gshape,Gapp和鉴别器Dshape,Dapp的体系结构与[31]中的相应组件相似,但有以
下区别。⾸先,⾃动编码器输出具有不同的尺⼨。在我们的⽰例中,对于Eshape,输出尺⼨为Ds=10,对于Eapp,输出尺⼨为Dt
=30。对于⼈体模型,分割图中的类数为Dc=20和Db=27维。其次,我们使⽤单级⽣成器Gshape,Gapp⽽不是两个级⽣成器G1
和G2,因为我们使⽤的是较低的512256分辨率。我们使⽤ADAM优化器训练了40个和80个时期的形状和外观⽹络,批次⼤⼩分
别为21和7个。其他训练参数为lr=0.0002,1=0.5,2=0.999。在线损耗(第3.3节)也通过ADAM使⽤lr=0.001,1=
0.5,2=0.999进⾏了优化。当两个连续迭代之间的在线损耗差异⼩于0.5时,优化将终⽌。在我们的实验中,我们发现该过程平均
在80次迭代后终⽌。
基准线
VITON[10]和CP-VITON[30]是基于图像的最新虚拟试穿⽅法,可在线实现。我们主要关注与CP-VITON的⽐较,因为它在[30]中被
证明优于原始的VITON。请注意,除了下⾯报告的评估差异外,CP-VITON(和VITON)⽅法⽐我们提出的⽅法受到更多限制,因为
它们仅⽀持⽣成在配对数据集上训练的顶部。
评估协议
我们采⽤了以前的虚拟尝试⽅法(即[30,25,10])中的相同评估协议,该⽅法同时使⽤了定量指标和⼈类主观感知研究。定量指标
包括:(1)Frechet初始距离(FID)[11],⽤于测量所⽣成图像与实际图像的Inception-v3激活分布之间的距离。(2)初始分数
(IS)[27],⽤于测量应⽤于⽣成图像的预训练的Inception-v3⽹络(Imag冬天来了的优美句子 eNet)的输出统计信息。
我们还进⾏了成对的A/B测试⼈体评估研究(如[30]),其中向⼈类受试者(⼯⼈)显⽰了250对参考和查询图像及其相应的虚拟试
穿结果(两种⽐较⽅法)。具体来说,给定⼀个⼈的图像和⽬标服装的图像,要求⼯作⼈员选择更真实的图像,并在两次虚拟试穿结
果之间保留⽬标服装的更多细节。
⽐较(表1)分为3种变化:(1)合成上⾐(2)合成⼀件⾐服(例如上⾐,夹克,裤⼦和⾐服)(3)从两个不同的参考图像同时合
成两件⾐服(例如上⾐和裤⼦,上⾐和夹克)。
定性评估
图4(左)显⽰了与CP-VITON相⽐,带有和不带有在线优化步骤的O-VITON⽅法的定性⽰例。为了公平起见,我们仅包括上⾐,因为CP-
VITON仅接受过衬衫转让⽅⾯的培训。请注意,在线优化如何更好地保留印刷品,徽标和其他⾮重复性图案的精细纹理细节。此外,CP-
VITON严格遵守原始查询服装的轮廓,⽽我们的⽅法对查询⼈员的原始服装不太敏感,从⽽⽣成了更⾃然的外观。图4(右)显⽰了有/⽆
在线优化步骤的夹克,连⾐裙和裤⼦的综合结果。两种⽅法都使⽤相同的形状⽣成步骤。我们可以看到,我们的⽅法成功完成了查询⼈体模
型的封闭区域,例如四肢或新暴露的⽪肤。在线优化步骤使模型能够适应训练数据集中未出现的形状和服装纹理。图1显⽰,即使建议的⽅
法同时合成了两件或三件服装,细节合成的⽔平仍保持不变。
失败案例
图7显⽰了我们的⽅法的失败案例,这些失败案例是由不频繁的姿势,具有独特轮廓的服装以及具有复杂⾮重复纹理的服装引起的,这
些事实证明对在线优化步骤更具挑战性。我们会向读者介绍补充材料,以获取更多故障案例的⽰例。
定量评估
表1列出了我们的O-VITON结果与CP-VITON的结果⽐较,以及我们单独使⽤前馈(FF)和FF+在线优化(为简便起见)得到的结果的⽐
较。与CP-VITON相⽐,我们的在线优化FID误差降低了约17%,IS得分提⾼了约15%。(但是请注意,单独使⽤前馈的FID错误要⽐CP-
VITON⾼)。⼈体评估研究与FID和IS得分均具有良好的相关性,在65%的测试中,我们的结果优于CP-VITON。
在线优化的消融研究
为了证明在线步骤的额外计算成本是合理的,我们将在线优化步骤(第3.3节)与(在线)和不使⽤(FF)⽅法进⾏了⽐较。类似于与
CP-VITON的⽐较,我们使⽤FID和IS得分以及⼈⼯评估。如表1所⽰,在线优化步骤显⽰出上⾐的FID得分显着提⾼,并且⼀件和两件
服装的结果相当。我们将上⾐的改进归因于以下事实:上⾐通常⽐裤⼦,夹克和裙⼦具有更复杂的图案(例如纹理,徽标,刺绣)。请
参阅补充材料以获取更多⽰例。在线优化步骤还显⽰出所有三种情况下IS得分的优势或可⽐的结果。⼈⼯评估清楚地证明了在线与单独
进给⽅案相⽐具有优势,上⾐的偏好度为94%,⼀件⾐服的偏好度为78%,两件⾐服的偏好度为76%。
在线损失是衡量综合质量的标准
我们测试了合成图像的质量与在线优化⽅案3.3的最⼩损失值(公式6)之间的关系。我们在⾼度纹理化的顶部⼦集上计算了FID和IS得
分,并随着优化的进⾏,测量了⼀系列损耗值。从1.0的固定间隔1.0的⾼损耗值开始,直到2.0的损耗值。图6显⽰了FID错误(红
⾊)和IS得分(蓝⾊)的⾏为。随着损失值的减少,我们看到FID错误明显减少,IS评分增加。我们认为在线损耗值与合成质量⾼度相
关。
概括
我们提出了⼀种新颖的算法(O-VITON),可以改善虚拟的试穿体验,⽤户可以选择将多件服装组合在⼀起,形成逼真的外观。O-VITON
可直接处理单个2D训练图像,这⽐成对的训练图像更容易收集和缩放。我们的⽅法⽣成了⼏何上正确的分割图,该图可以更改所选参考服
装的形状以符合⽬标⼈的要求。该算法使⽤在线优化⽅案准确地合成精细的服装特征,例如纹理,徽标和刺绣,该⽅案可以对合成图像进⾏
微调。定量和定性评估显⽰出⽐现有的最新技术更好的准确性和灵活性。
更多推荐
viton是什么意思on在线翻译读音例句
发布评论