内容简介:CVPR 2019 即将开幕啦,作为计算机视觉领域最重要的顶会之一,备受广大学术青年们的关注。官方也已经开放了全部论文的下载(想要论文集合的可以看这里:
CVPR 2019 即将开幕啦,作为计算机视觉领域最重要的顶会之一,备受广大学术青年们的关注。官方也已经开放了全部论文的下载(想要论文集合的可以看这里: https://ai.yanxishe.com/page/resourceDetail/845 ),在CVPR 2019接收结果公布后,出现了许多优秀的论文解读,为方便大家阅读,特开设此帖希望可以实时跟进和汇总 CVPR2019 的优秀论文解读文章 ,以下是解读文章,欢迎收藏阅读~
14 【CVPR 2019 论文解读】人大 ML 研究组提出新的视频测谎算法
Brief: 该论文提出了一种新颖的视频测谎算法,这种算法只需要少量的视频数据进行训练,并在训练后对短视频进行测试。实验结果显示,该测谎算法的准确率高达 90% 以上,同时在结合语音和 word2vec 信息后,这一准确率可以进一步提高至 95% 以上。
链接: https://ai.yanxishe.com/page/reportDetail/13405
13 【 CVPR2019论文解读】具有高标签利用率的图滤波半监督学习方法
Brief: 《Label-Efficient Semi-Supervised Learning via Graph Filtering》一文研究了半监督学习问题,作者们提出了一种基于图滤波的半监督学习框架,并利用该框架对两种典型的图半监督分类方法LP和GCN进行了改进,新的方法不仅能同时利用图的连接信息和节点的特征信息,还能提高标签的利用效率,文中提出的改进方法在所有的实验数据集上都取得了最好的效果。作者用图滤波框架统一了看起来完全不同的LP和GCN,其“低通滤波”的观点精炼地解释了这两种方法在实际应用中奏效的原因,提高了研究者对于此类方法的认知水平。
链接: https://ai.yanxishe.com/page/postDetail/11483
12 【CVPR2019论文解读】基于多级神经纹理迁移的图像超分辨方法 (Adobe Research)
Brief: 超分辨(Super-Resolution)图像恢复旨在从低分辨模糊图像中恢复出高分辨的清晰图像,是计算机视觉中的一个重要任务,在工业界有非常强的应用前景。CVPR是图像超分辨研究的集中地之一,光今年录用的超分辨及相关研究方向的论文就不下10篇。本文解读其中一篇由Adobe研究院为一作发表的超分辨研究方向的论文。
链接: https://ai.yanxishe.com/page/postDetail/11551
11 【CVPR 2019论文解读】最新高效卷积方式HetConv
Brief: 文章提出了一种新的高效卷积方式:HetConv,在CIFAR10、ImageNet等数据集超过了标准卷积以及DW+PW的高效卷积组合形式,取得了更高的分类性能。
链接: https://ai.yanxishe.com/page/postDetail/11232
10 【CVPR19 Oral论文解读】利用事件相机将模糊视频还原成高速清晰视频
Brief: 该文利用了目前火热的事件相机,巧妙的利用多传感器之间的互补特性,且具有很好的推广应用价值。过去大家做图像的去模糊,一般只会考虑普通相机采集到的图片,通过估计模糊的核函数,来为图像做去模糊,而这里引入了一个高速的事件相机,通过两个有互补特性的sensor, 为其特性和两者采集数据之间的关系进行建模,把问题formulate成一个简单的非凸优化的问题,
链接: https://ai.yanxishe.com/page/postDetail/11576
09 【CVPR19 Oral论文解读 】PlaneRCNN
Brief: 本文提出了一种深度神经结构PlaneRCNN,用于检测和重建分段平面从一个RGB图像。PlaneRCNN使用了一个变型的掩模R-CNN检测平面与他们的平面参数和分割掩码。PlaneRCNN然后共同用一个新的损失强制细化所有的分割掩码训练过程中与附近视野的一致性。本文还提出了一种更细粒度的基准测试方法地面真值的平面分割,其中,PlaneRCNN优于现有的最先进的方法在平面检测、分割等方面有较大的优势,和重建指标。PlaneRCNN做了一个重要的向鲁棒平面提取迈进,这将对广泛的应用程序有直接的影响包括机器人、增强现实和虚拟现实。
链接: https://ai.yanxishe.com/page/postDetail/11463
08 【CVPR2019 Oral 论文解读】百度提出关于网络压缩和加速的新剪枝算法
Brief: 百度关于网络压缩和加速的论文《 Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration》被 CCF A 类学术会议 CVPR 2019 收录为 Oral 论文,这篇论文提出了新的基于滤波器的几何中心(geometric median)的剪枝算法,来对神经网络进行压缩和加速。本文是论文作者之一何洋为AI 科技评论提供的论文解读。
链接: https://ai.yanxishe.com/page/postDetail/11633
07 【CVPR 2019 Oral 论文解读】无监督域适应语义分割
Brief: 《Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation》引入了联合训练结合对抗学习的设计,在无监督域适应语义分割任务中取得了较好的实验结果。该算法能应用前景广泛,比如能够很好地应用到自动驾驶中,让车辆在不同的驾驶环境中也能保持鲁棒的街景识别率。
链接: https://ai.yanxishe.com/page/postDetail/11631
06 【CVPR2019 Oral论文】SideWindow Filtering 介绍
Brief: 这篇文章的思想源于我的 博士论文 ,可以参考 基于曲率的图像处理 。博士毕业以后,我也陆陆续续写了一些关于半窗口滤波的论文,比如 曲率滤波 , Bernstein滤波 ,Sub-window Box Filter ( VCIP2018论文链接 ), Generic Geometric Prior (GGP) 等等。但是这次CVPR的论文使得子窗口回归站到了更大的学术舞台上。
链接: https://ai.yanxishe.com/page/postDetail/11577
05 CVPR 2019 | 智能体张量融合,一种保持空间结构信息的轨迹预测
Brief: 本文是计算机视觉领域国际顶级会议 CVPR 2019 入选论文《Multi Agent Tensor Fusion for Contextual Trajectory Prediction》的解读。该论文由 MIT 支持的自动驾驶初创公司 ISEE Inc,北京大学王亦洲课题组,UCLA,以及 MIT CSAIL 合作共同完成。该论文主要提出了一种基于深度学习的车辆和行人轨迹预测方法,提出了一个可以保持空间结构信息的多智能体张量融合网络,在机动车驾驶和行人轨迹数据集中对模型的性能进行了验证。
链接: https://ai.yanxishe.com/page/postDetail/13359
04 万字长文详解腾讯优图 CVPR 2019 入选论文
Brief: 今年有超过 5165 篇的大会论文投稿,最终录取 1299 篇。此次,腾讯公司有超过 58 篇论文被本届 CVPR 接收,其中腾讯优图实验室 25 篇、腾讯 AI Lab 33 篇,以下便是对腾讯优图实验室 25 篇被录用论文的详细介绍。
链接: https://ai.yanxishe.com/page/postDetail/10308
03 CVPR 2019 召开在即,亮风台端到端的投影仪光学补偿入选 oral 论文
Brief: 《End-to-end Projector Photometric Compensation》的贡献主要在以下几点:
1.首次将投影仪光学补偿问题阐述为一个端到端的深度学习问题,然后构造一个新颖的名为 CompenNet 的卷积神经网络(CNN)来隐式的学习这个复杂的补偿函数。
2.首次提出一个独立于设备和实际投影的数据库和评价基准,今后类似的工作可以在这个评价基准上统一比较,而不需要复现该研究中使用的设备和实际投影,以前的工作是没有这样的评价基准的。
3.提供了一个预训练的方法,将预训练好的 CompenNet 迁移到新的投影屏幕和硬件设置上,只需要拍摄少量的采样图片就可以媲美甚至超过从零开始训练 CompenNet 和传统方法,这样可以大量的节省采样图拍摄时间和训练时间。
4.在亮风台提出的评价基准上比较了 CompenNet 和其他传统的方法,以及一个通用的图到图迁移的深度学习框架 pix2pix,实验结果显示在数值和质量效果上新方法都大幅度优于其他参与比较的方法。
链接: https://ai.yanxishe.com/page/reportDetail/13399
02 王威廉组满分CVPR论文:遵照自然语言指令的室内导航
Brief: 视觉-语言导航(Vision-language navigation,VLN)任务是指在真实的三维环境中让具有实体的智能体进行导航并完成自然语言指令。在这篇论文中,作者们研究了如何解决这个任务中的三个重点挑战:跨模态参照,糟糕的反馈,以及泛化问题。作者们首先提出了一种新的强化跨模态匹配(RCM)方法,它可以通过强化学习的方式同时促进局部和全局的跨模态参照。具体来说,他们使用了一个匹配指标,它成为了鼓励模型增强外部指令和运动轨迹之间匹配的固有反馈;模型也使用了一个推理导航器,它用来在局部视觉场景中执行跨模态参照。在一个 VLN benchmark 数据集上进行的评估结果表明,作者们提出的 RCM 模型大幅超越已有模型,SPL 分数提高了 10%,成为了新的 SOTA。为了提高学习到的策略的泛化性,作者们还进一步提出了一个自监督模仿学习(SIL)方法,通过模仿自己以往的良好决策的方式探索未曾见过的环境。作者们表明了 SIL 可以逼近出更好、更高效的策略,这极大程度减小了智能体在见过和未见过的环境中的成功率表现的差别(从 30.7% 降低到 11.7%)。
链接: https://ai.yanxishe.com/page/postDetail/10187
01 Siamese:CVPR 2019 接收论文作者为你解读视频跟踪领域
链接: https://ai.yanxishe.com/page/reportDetail/13404
社长提醒: 想更方便地查看相关论文解读,记得点击底部的 【阅读原文】 快速访问对应链接。
传送门在这里
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- CVPR 2019 | 微软亚洲研究院7篇精选论文解读
- ACL 2019 | 微软8篇精选论文解读,一览最新研究进展
- iOS面试题精选
- 机器学习笔试题精选(五)
- 送出21本,精选技术书籍!
- Objective-C编码规范精选
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
无懈可击的Web设计
西德霍姆 / 刘建宁 / 清华大学出版社 / 2009-4 / 59.90元
一个网站,无论视觉上多么美观,内容多么丰富,如果不能面向最广泛的用户群,那它就不算是真正成功的网站。《无懈可击的Web设计:利用XHTML和CSS提高网站的灵活性与适应性》是Web标准设计领域的公认专家Dan Cederholm的倾力之作,向您描述了基于Web标准的设计策略,以适应各种各样的用户浏览方式。书中每一章的开头都给出了一个基于传统HTML技术的实例,然后对它进行重构,指出它的局限性,并利......一起来看看 《无懈可击的Web设计》 这本书的介绍吧!