登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 毕业论文 > 电子信息类 > 通信工程 > 正文

基于显著度的深度图自适应采样算法研究与实现毕业论文

 2021-03-08 11:03  

摘 要

Abstract 6

第一章 绪论 7

1.1课题研究的背景及目的、意义 7

1.2深度图压缩方案的国内外研究现状 8

1.3本文主要研究内容及组织结构 10

1.3.1本文的研究内容 10

1.3.2本文的组织结构 10

第二章 3D视频编码中深度图压缩的关键技术分析 12

2.1 3D视频编码技术概述 12

2.2 本文深度图压缩框架 14

2.2.1 GBVS显著度的提取 15

2.2.2自适应的四叉树分块 16

2.2.3采样率的映射 16

2.3本章小结 16

第三章 基于图论的显著度的算法研究 17

3.1基于图论的显著度算法(GBVS) 17

3.2激励图的生成 18

3.3激励图的归一化 19

3.4仿真结果分析 20

3.4.1核心代码的实现 20

3.4.2实验结果分析 22

3.5本章小结 23

第四章 一种新的深度图自适应采样算法设计 24

4.1算法思路 24

4.2算法方案步骤与流程 25

4.2.1深度图的自适应分块 25

4.2.2显著度到采样率的映射 26

4.3仿真结果分析 26

4.3.1核心代码的实现 26

4.3.2实验结果分析 29

4.4本章小结 30

第五章基于显著度的深度图自适应采样仿真结果分析 31

5.1实验结果图像分析与对比 31

5.2实验结果数据分析与对比 32

第六章总结与展望 34

6.1全文总结 34

6.2工作展望 35

参考文献 36

致谢 38

摘要

由于目前标准深度图压缩算法会使得深度图信息丢失,从而重建图像出现“锯齿边缘”“边缘模糊”等现象。本文针对以上问题提出了一种新的下采样方案,方案被分为两个步骤:第一步,在颜色、方向、亮度等通道上计算纹理图的显著度;第二步,对深度图进行基于显著度的自适应下采样。这种压缩方案结合了人类的视觉注意力信息,所以对那些更吸引人新区的区域采样率更高。本方案相对于传统方案具有防止“边缘模糊”、“边缘锯齿”现象的优点,同时还能保证图像的压缩率。

作者的主要研究工作如下:

1.研究了多种视觉显著度算法,得到针对传统压缩方案所存在缺点的修正的最优显著度算法。由于目前最经典的显著度算法Itti模型具有不能突出显著区域的缺点,因此本文研究了多种显著度算法,并根据实验对比,选择了GBVS算法,该算法计算显著度区域更加准确,使得中心区域的显著度更加明显,在边缘区域的显著度也会适当提升;

2.通过几组实验对几种图像自适应采样方案进行了对比确定了最合适的采样率映射参数。采样率的变化会影响深度图压缩的效率以及深度图恢复重建的质量,因此在实验中

进行了多组采样率映射参数的实验并选出合适的参数兼容压缩率与重建质量;

3.对上采样恢复结果进行对比,并根据图像质量比对标准坏点率,峰值信噪比进行对比并分析了不同采样方案的仿真结果。本文就重建的深度图通过坏点率和峰值信噪比两个方面进行了试验对比。实验结果表明本文所提出的采样方案在坏点率以及峰值信噪比两项指标上的表现均优于传统方案。

关键词:显著度算法,深度图自适应分块,采样率映射,坏点率,峰值信噪比

Abstract

Due to the loss of information of standard depth image in compression algorithm, which will lead to edge blur and "sawtooth edge", A new method for depth image down sampling is proposed. The scheme is divided into two steps; The first step is computing the saliency map of color image on certain feature channels. The second step is executing adaptive sampling of depth image combining saliency map. The scheme combine with human fixation information and gives higher sampling rate to the region with higher saliency value. The scheme have advantage so of avoiding edge blur and emerging sawtooth in edge, meanwhile the compression rate is guaranteed.

The major work we have done is described as follow:

1. comparing different algorithm of saliency computing and choose the most suitable one to the proposed scheme. the classical model "Itti amp; Koch" have some weakness such as the saliency value of region drawing more attention is not distinct from others. Therefore, we have explored many algorithms and choose the "GBVS". This algorithm has more advantages in highlighting salient region decreasing the weakness of saliency value in border.

2. comparing the scheme of adaptive sampling and choose the most suitable parameter for the equation. The change of sampling rate will influence the compression rate and the quality of reconstructed image, so we have taken many tests of choosing sampling parameter.

3. contrasting the result of reconstructed image, and comparing different schemes. A complete algorithm needs an overall analysis of experimental results, so we have compared the result from two aspects "the bad pixels rate" "PSNR". "The bad pixels rate "describes the number of bad pixels and "PSNR" indicates the error extent of bad pixels. Through these two standards we can have an overall contrast.

Keywords: saliency map, adaptive sampling of depth image, sampling rate mapping, the bad point rate, Peak Signal to Noise Ratio

第一章 绪论

1.1课题研究的背景及目的、意义

自从视频显示技术诞生以来,通过媒体获得信息的方式就大大丰富,从以前的黑白显示到彩色显示,从模拟显示设备到数字显示。随着高解析度电视的发展,人们对显示设备的追求越来越高,人们希望能有更真实的观影体验。在这种情况下,3D显示技术产生逐步发展。

您需要先支付 80元 才能查看全部内容!立即支付

企业微信

Copyright © 2010-2022 毕业论文网 站点地图