首页> 中文学位 >基于深度生成模型的可控图像生成及编辑方法研究
【6h】

基于深度生成模型的可控图像生成及编辑方法研究

代理获取

目录

声明

摘要

第1章绪论

1.1研究背景与意义

1.2国内外研究现状

1.3主要研究内容及创新点

1.3.1 条件参数驱动的可控图像生成方法研究

1.3.2条件参数驱动的可控图像编辑方法研究

1.3.3可控深度生成模型的可解释分析方法研究

1.4论文组织结构

第2章可控图像生成与编辑基础

2.1深度生成模型

2.1.1生成式对抗网络

2.1.2变分自编码器

2.1.3基于标准流的生成模型

2.2深度生成模型的改进工作

2.2.1 模型网络结构的改进

2.2.2损失函数的改进

2.2.3训练算法的改进

2.3基于深度生成模型的可控图像生成

2.3.1条件图像生成模型

2.3.2可控图像转换模型

2.3.3隐空间解纠缠

2.4.1 深度生成模型的主要应用场景

2.4.2深度生成模型的性能评价指标

2.5本章小结

第3章条件参数驱动的可控图像生成

3.1 条件生成模型背景介绍

3.2基于连续特征值条件参数的可控图像生成

3.2.1 基于辅助回归网络的可控眼部图像生成

3.2.2模型结构及实现细节

3.2.3实验结果分析

3.3基于离散类别条件参数的可控图像生成

3.3.1基于判别器改进的类别条件图像生成

3.3.2模型结构及实现细节

3.3.3实验结果分析

3.4本章小结

第4章属性差异驱动的无配对图像可控编辑

4.1 可控图像编辑背景介绍

4.2 基于Siamese网络的无配对人脸图像属性差异提取

4.3基于属性差异信息的人脸图像属性编辑

4.4模型网络结构及实现细节

4.4.1训练数据集

4.4.2评价指标

4.4.3模型网络结构

4.5实验结果分析

4.5.1 基于属性差异信息的单属性编辑

4.5.2属性差异提取器的作用评估

4.5.3 多属性及高分辨率编辑结果

4.6本章小结

第5章基于隐空间可解释分析的可控语义概念修改

5.1 深度生成模型的可解释性分析

5.2基于关联性分析的生成模型隐空间可解释性研究

5.2.1问题定义

5.2.2基于顺序干预的相关隐空间维定位

5.2.3基于优化策略的隐空间控制集定位

5.3基于关联性分析的可控图像生成

5.4实验结果分析

5.4.1 数据集及实验参数设置

5.4.2隐空间变量顺序干预

5.4.3隐空间维控制集

5.4.4基于隐空间控制集的可控概念修改

5.4.5隐空间极限修改

5.5本章小结

第6章总结与展望

6.1论文工作总结

6.2不足之处与研究展望

参考文献

致谢

在读期间参与的科研项目与取得的研究成果

展开▼

著录项

  • 作者

    陶仁拓;

  • 作者单位

    中国科学技术大学;

  • 授予单位 中国科学技术大学;
  • 学科 信息与通信工程
  • 授予学位 博士
  • 导师姓名 李斌;
  • 年度 2020
  • 页码
  • 总页数
  • 原文格式 PDF
  • 正文语种 chi
  • 中图分类 TP3TN9;
  • 关键词

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号