在训练和评估自动驾驶汽车时,一个强大的模拟器可以大大减少对真实世界测试的需求。数据驱动的模拟器随着最近条件生成对抗网络(cGANs)的发展而壮大,提供了高保真的图像。主要的挑战是在遵循给定的约束条件下合成逼真的图像。在这项工作中,我们提出通过重新思考判别器的结构来提高生成图像的质量。重点是在给定语义输入的情况下生成图像的一类问题,如场景分割图或人体姿势。我们在成功的cGAN模型的基础上,提出了一个能更好地指导生成器的新闻语义感知的鉴别器。我们的目标是学习一个共享的潜在表征,该表征编码了足够的信息来联合进行语义分割、内容重建以及从粗到细的对抗性推理。所取得的改进是通用和简单的,足以应用于任何条件性图像合成的架构。我们在三个不同的数据集上展示了我们的方法在场景、建筑和人类合成任务上的优势。相关代码可在https://github.com/vita-epfl/SemDisc。
《A Shared Representation for Photorealistic Driving Simulators》
论文地址:http://arxiv.org/abs/2112.05134v1
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved