cvpr2014显著性相关论文

2023-12-02 22:32

本文主要是介绍cvpr2014显著性相关论文,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

显著性:

1. the secret of salient object segmentation.

 author: YanLi.  和houxidi合作的, 很好的一篇文章,我看了下, 他们的思路很好, 感觉什么东西做了一段时间都要质疑下, 批判的思想。


2.  salient region detection via high -dimensional color transform . 
author:Jiwhan Kim, 韩国人, 本科在清华读的。 在高维空间颜色转化?有意思。是的, 训练特征, 然后转化, 和那个drfi那篇比较类似,效果还可以的, 没有GMR,Drfi好, 时间运行有点长,他在文章提到他的算法3.32s, DRFI29.27s, 不知道他怎么测试的


3  learning optimal features for salient object detection. 
author : Song Lu.    学习优化的特征,看了文章, 用了好多的cues, 我在想作者用了那么多, 里面的一些cues肯定会相互影响, 有的cues很多回削弱saliency。


 
4 Adaptive Partial Differential Equation Learning for Visual Saliency Detection
author: Risheng Liu. 用自适应偏微分方程做显著性。 这个值得学习, 因为我曾经想这么研究的, 但是。。。,
不过PDE还是很有用处的。看了下作者的paper, 文章中又有子模块优化, 看了下效果, 还可以的, 这篇文章中了oral, 所以还是要好好读啊


5 Time-Mapping Using Space-Time Saliency。
 author: Feng Zhou. 估计是在视频中做显著性的。这个project很有意思, 从高速帧中提取低速帧, 用过5S的童鞋应该知道, 拍一段视频的时候, 比如是120fps,可以30fps 播放,可以看到更加清晰的动作, 但是当我们看30fps的视频的时候, 发现是不是有点运动模糊, 这篇文章就是解决这个问题的, 感觉作者的思想很有新意, 跑了下效果, 确实还不错。作者的Slide也做的很好, 但是由于我是ppt小白, 不知道那个里面嵌了视频, 但本地却没有视频, 不知道童鞋可以如何做的吗? 知道的话,可以教我下哟。


6 Saliency Optimization from Robust Background Detection。 
 author: Wangjiang Zhu 通过强健的背景先验得到显著优化。方法很好, 通过计算区域和边界的连接概率来操作的。方法很好, 但是我跑了下试验的效果, 感觉解决了一些问题, 但是效果没有想象的那么好, 但是是微软的文章, 很是值得去学习。


 
 7 Saliency Detection on Light Fields 
 author:Nianyi Li 。 通过光场来做显著性吗?是的, 看了她的数据集, 感觉那个数据集太复杂了, 其实现实生活中没那复杂的场景的,所以。。。。。。。


 
 8 Large-Scale Optimization of Hierarchical Features for Saliency Prediction in Natural Images
  author Eleonora Vig. 又是优化, 期待是怎么处理的。


9 还有一篇文章, How to Evaluate Foreground Maps, 还是将如何评价显著性的, 那篇文章我很看好, 他的老板很牛,估计这样的评价标准以后会用吧, 因为现在业界的评价标准有点问题。但是目前一段时间还会继续沿用,就像高考,大家批了好多年,但是还是继续。 因为没这个, 社会会乱啊。


  好奇的文章:
  
  9 Multivariate General Linear Models (MGLM) on Riemannian Manifolds with Applications to Statistical Analysis of Diffusion Weighted Images
  棒子的文章, 8个作者。看到黎曼几何, 觉得很高端,去了他的主页,真心的不错啊。


这篇关于cvpr2014显著性相关论文的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/447074

相关文章

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

两个月冲刺软考——访问位与修改位的题型(淘汰哪一页);内聚的类型;关于码制的知识点;地址映射的相关内容

1.访问位与修改位的题型(淘汰哪一页) 访问位:为1时表示在内存期间被访问过,为0时表示未被访问;修改位:为1时表示该页面自从被装入内存后被修改过,为0时表示未修改过。 置换页面时,最先置换访问位和修改位为00的,其次是01(没被访问但被修改过)的,之后是10(被访问了但没被修改过),最后是11。 2.内聚的类型 功能内聚:完成一个单一功能,各个部分协同工作,缺一不可。 顺序内聚:

log4j2相关配置说明以及${sys:catalina.home}应用

${sys:catalina.home} 等价于 System.getProperty("catalina.home") 就是Tomcat的根目录:  C:\apache-tomcat-7.0.77 <PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /> 2017-08-10

Node Linux相关安装

下载经编译好的文件cd /optwget https://nodejs.org/dist/v10.15.3/node-v10.15.3-linux-x64.tar.gztar -xvf node-v10.15.3-linux-x64.tar.gzln -s /opt/node-v10.15.3-linux-x64/bin/npm /usr/local/bin/ln -s /opt/nod

git ssh key相关

step1、进入.ssh文件夹   (windows下 下载git客户端)   cd ~/.ssh(windows mkdir ~/.ssh) step2、配置name和email git config --global user.name "你的名称"git config --global user.email "你的邮箱" step3、生成key ssh-keygen

zookeeper相关面试题

zk的数据同步原理?zk的集群会出现脑裂的问题吗?zk的watch机制实现原理?zk是如何保证一致性的?zk的快速选举leader原理?zk的典型应用场景zk中一个客户端修改了数据之后,其他客户端能够马上获取到最新的数据吗?zk对事物的支持? 1. zk的数据同步原理? zk的数据同步过程中,通过以下三个参数来选择对应的数据同步方式 peerLastZxid:Learner服务器(Follo

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已