SwiftTailor:利用几何图像表示实现高效的 3D 服装生成
来源专知 本文约1000字建议阅读5分钟这项工作为下一代 3D 服装生成提供了一个可扩展、可解释且高性能的解决方案。逼真且高效的 3D 服装生成一直是计算机视觉和数字时尚领域的长期挑战。现有方法通常依赖大型视觉语言模型来生成 2D 缝制样板的序列化表示然后使用 GarmentCode 等服装建模框架将其转换为可仿真的 3D 网格。虽然这些方法产出了高质量结果但它们往往面临推理速度慢的问题耗时在 30 秒到 1 分钟之间。在这项工作中我们推出了 SwiftTailor这是一个新颖的两阶段框架通过紧凑的几何图像表示统一了缝制样板推理和基于几何的网格合成。SwiftTailor 包含两个轻量化模块PatternMaker一个能从多种输入模态预测缝制样板的高效视觉语言模型和 GarmentSewer一个高效的密集预测 Transformer可将这些样板转换为新颖的服装几何图像在统一的 UV 空间中编码所有服装裁片的 3D 表面。最终的 3D 网格通过高效的逆映射过程重建该过程结合了重网格化和动态缝合算法来直接组装服装从而抵消了物理仿真的开销。在 Multimodal GarmentCodeData 上的广泛实验表明SwiftTailor 在显著缩短推理时间的同时实现了最先进的准确度和视觉逼真度。这项工作为下一代 3D 服装生成提供了一个可扩展、可解释且高性能的解决方案。关于我们数据派THU作为数据科学类公众号背靠清华大学大数据研究中心分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识努力建设数据人才聚集平台、打造中国大数据最强集团军。新浪微博数据派THU微信视频号数据派THU今日头条数据派THU