《UC-Net:Uncertainty Inspired RGB-D Saliency Detection via Conditional Variational Autoencoders》论文笔记

参考代码:UC-Net

1. 概述

导读:这篇文章研究的是RGB-D数据的显著性目标检测问题,其中的D代表的是深度图,可以通过如Kinect之类的深度传感器/深度估计网络等得到。在之前RGB-D显著性目标检测算法中一般将显著性目标当成为决策性的像素点估计问题,因而对于每个输入的样本数据都只会生成一个固定的显著性目标检测结果。其实要是对于显著性目标的结果具有较为明确的判断准则,那么这样的方式本身也没有什么问题。但是关键却是在显著性目标的标注问题上,不同人对同一幅图的显著性目标确定可能会存在差异,这就导致了使用上述算法得到的显著性目标并不是很准确。对此文章将原来的决策性检测问题通过条件变分自动编码器(CVAE)变化为基于概率模型的检测问题,因而可以对于同一张图在latent space上进行采样,从而生成多个不同的显著性目标检测结果,之后通过多数投票的方式保持显著性目标的一致性(salient concensus)。此外,文章通过遮挡之后迭代进行显著性目标检测从而得到一张图的多个显著性目标结果。

通过在RGB图像基础上引入深度图像可以极大提升显著性目标检测的准确度,但是由于人员在标注过程中存在主观判断差异与评判标准模糊,使用传统的显著性目标检测算法可能会存在结果上的歧义问题,因为算法只呈现了一个结果。这篇文章通过CAVE引入概率模型,通过采样得到多个显著性目标的结果,见下图1所示:


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部