登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 开题报告 > 理工学类 > 信息与计算科学 > 正文

基于生成对抗网络的语意图像分割开题报告

 2020-02-10 11:02  

1. 研究目的与意义(文献综述)

语意图像分割是指根据图像的不同像素级别,将一些原始数据作为输入并将它们转换为具有突出显示的感兴趣区域的掩模,使得分割得到的相同区域的纹理和灰度相似,而相邻区域对分割的依据特点有明显差异,从而将图像区分为若干个不同的区域,并使用迥异的彩色对图像不同区域进行标注分类的过程。

在当今时代,随着机器学习和人工智能的兴起,计算机视觉技术受到广泛的关注。

语意图像分割作为计算机视觉技术的热点研究方向,主要应用于地质检测、自动驾驶、面部分割、服装分类以及农业精准灌溉等重要领域中。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 研究的基本内容与方案

2.1 研究的基本内容和目标
本文拟采用深度学习技术,研究基于生成对抗网络的语意图像分割算法,针对传统图像分割方法对像素点逐一分类,忽略图像区域性的特点,采取卷积神经网络描述生成模型和判别模型,在公开数据集上测试图像分割效果,并通过主观和客观的评价方法,验证模型的优越性。

2.2 拟采取的方案和措施
基于GAN的语意图像分割是依据GAN原理,对未知标签图像进行语意分割分类,在半监督的框架下,实现对未知情形的尽可能充分地掌握,便于人们做出合理决策。以具有标签类别与像素数据的游戏街道场景和只具有像素数据的真实街道场景为例,其算法过程如下:
Step1:给定初始准确率accuracy,利用游戏街道样本数据提取特征,用于训练判别模型D,使来自样本的数据通过判别模型,输出相比已知数据标签的准确率大致为accuracy;
Step2:对于真实街道样本数据提取特征,并加入随机噪声,通过生成模型G产生生成数据特征,输入判别模型,判断符合真实数据分布的概率p。若p=0.5,则算法终止,记录此时的模型D为C;若plt;0.5,则转到step3;
Step3:降低accuracy,转到step1。
其中判别模型D采用深度学习中的卷积神经网络进行判别,通过不断调整参数进行迭代,在生成对抗网路的框架下,即可得到最终的判别模型C。将真实街道数据输入C,即实现了对真实街道数据的分类,也就完成了对真实街道数据的语意图像分割。
本文将利用python的pytorch深度学习库实现基于GAN的语意图像分割。首先应学习并熟练pytorch的一些基本用法以及GAN原理,了解pytorch用于图像分割的基本框架及各参数含义;其次构建基于GAN的语意图像分割框架,在不同的公开数据集上进行训练测试并调整参数;最后将各种方法的测试结果进行对比,验证本文所用算法的优越性。

3. 研究计划与安排

1-3周:查阅不少于15篇参考文献,其中英文文献不少于3篇,完成开题
报告;
4-6周:总体设计,了解各种生成对抗网络方法、原理以及适用环境,并完
成论文综述;
7-10周:设计合理的生成对抗网络算法以及实现功能模块设计;
11-13周:进行正式编码和结果测试;
14-15周:进行撰写毕业设计论文,并提交初稿,给老师检查和提意见,修
改定稿,并准备论文答辩。

4. 参考文献(12篇以上)

[1] Goodfellow Ian,Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in Neural Information Processing Systems.(NIPS 2014) , 8-11th,December: 2672-2680.
[2] Denton E L, Chintala S, Fergus R. Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks[C]//Advances in neural information processing systems.(NIPS 2015),7-12th,December: 1486-1494.
[3] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. Computer Science:1511.06434, 2015.
[4] RAYMOND A, CHEN CH, LIM T Y,et.al. Semantic image inpainting with deep generative models[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2017), 21-26 July: 5485-5493.
[5] Swami Sankaranarayanan, Yogesh Balaji, et al. Learning from Synthetic Data: Addressing Domain Shift for Semantic Segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2018), 18-23,June:3752-3761.
[6] Kiana Ehsani, Roozben Mottaghi, Ali Farhadi. SeGAN: Segmenting and Generating the Invisible[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2018), 18-23,June:6144-6153.
[7] K. Bousmalis, N. Silberman, D. Dohan, D. Erhan, and D. Krishnan. Unsupervised pixel-level domain adaptation with generative adversarial networks[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2017),. 21-26 July:95-104
[8]税留成,刘卫忠,冯卓明.基于生成式对抗网络的图像自动标注[J].计算机应用,2019,39(03):1-6.
[9]刘航,李扬,袁浩期,王俊影.基于生成对抗网络的语音信号分离[J].计算机工程:2019,45(03):1-8.
[10]李凯,彭亦功.基于生成对抗网络的图像识别改进方法[J].计算机工程与设计,2019,40(02):492-495 532.
[11]王旺,徐俊武.基于GAN的图像超分辨率方法研究[J].软件导刊,2019,18(01):1-4.
[12]吴华明,刘茜瑞,王耀宏.基于生成对抗网络的人脸图像翻译[J].天津大学学报,2019,52(03):306-314.
[13]唐骞.基于对抗学习的图像修复[J].计算机产品与流通,2019,36(01):210-211.
[14]蒋芸,谭宁,张海,彭婷婷.基于条件生成对抗网络的咬翼片图像分割[J].计算机工程,2019,45(03):1-6.
[15]杨红亚,赵景秀,徐冠华,刘爽.彩色图像分割方法综述[J].软件导刊,2018,17(04):1-5.
[16]杨朔,陈丽芳,石瑀,毛一鸣.基于深度生成式对抗网络的蓝藻语义分割[J].计算机应用,2018,38(06):1554-1561.
[17]张营营.生成对抗网络模型综述[J].电子设计工程,2018,26(05):34-37 43.
[18]罗冰. 语义对象分割方法研究[D].四川:电子科技大学博士毕业论文.
[19]曹攀. 图像语义分割研究[D].江苏:江南大学硕士毕业论文.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

企业微信

Copyright © 2010-2022 毕业论文网 站点地图