内容简介:计算机视觉顶级会议CVPR2019 accepted list已经公布,极市已将目前收集到的公开论文总结到github上(目前已收集546篇),后续会不断更新,欢迎关注,也欢迎大家提交自己的论文:https://github.com/extreme-assistant/cvpr2019
极市正在推出 CVPR2019的专题直播分享会 , 邀请CVPR2019的论文作者进行线上直播, 分享优秀的科研工作和技术干货,也欢迎各位小伙伴自荐或推荐优秀的CVPR论文作者到极市进行技术分享~
本周四(5月9日)晚, 中科院自动化所模式识别国家重点实验室的张志鹏 ,将为我们分享
基于siamese网络的单目标跟踪 (CVPR2019 Oral) ,公众号回复 “41” 即可获取直播详情。
计算机视觉顶级会议CVPR2019 accepted list已经公布,极市已将目前收集到的公开论文总结到github上(目前已收集546篇),后续会不断更新,欢迎关注,也欢迎大家提交自己的论文:
https://github.com/extreme-assistant/cvpr2019
今天为大家分享 CVPR2019 目标检测 相关论文的汇总,本文首发于极市平台知乎专栏
https://zhuanlan.zhihu.com/p/60823819 ,欢迎 关注专栏获取本系列后续更新 ~如有遗漏也欢迎大家留言补充或提出建议。
ps.极市也曾分享过一篇: CVPR2019目标检测方法进展综述 ,可以结合本文一起阅读~
作者:Peiliang Li, Xiaozhi Chen, Shaojie Shen
论文链接:https://arxiv.org/abs/1902.09738
作者:Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, Silvio Savarese
论文解读: CVPR2019 | 目标检测新文:Generalized Intersection over Union
3、ROI-10D: Monocular Lifting of 2D Detection to 6D Pose and Metric Shape
作者:Fabian Manhardt, Wadim Kehl, Adrien Gaidon
作者:Jianzhong He, Shiliang Zhang, Ming Yang, Yanhu Shan, Tiejun Huang
Github源码:
https://github.com/pkuCactus/BDCN
5、RepMet: Representative-based metric learning for classification and one-shot object detection作者:Leonid Karlinsky, Joseph Shtok, Sivan Harary, Eli Schwartz, Amit Aides, Rogerio Feris, Raja Giryes, Alex M. Bronstein
论文链接:https://arxiv.org/abs/1806.04728
作者:Jiaqi Wang, Kai Chen, Shuo Yang, Chen Change Loy, Dahua Lin
论文解读: Guided Anchoring: 物体检测器也能自己学 Anchor
Github链接:https://github.com/open-mmlab/mmdetection
作者:Bo Xiong, Yannis Kalantidis, Deepti Ghadiyaram, Kristen Grauman
作者:Ayush Jaiswal, Yue Wu, Wael AbdAlmageed, Iacopo Masi, Premkumar Natarajan
作者:Chenchen Zhu, Yihui He, Marios Savvides
论文解读: CVPR2019 | FSAF:来自CMU的Single-Shot目标检测算法
一作直播: CVPR2019 专题直播 | CMU 诸宸辰:基于 Anchor-free 特征选择模块的单阶目标检测
作者:Nan Xue, Song Bai, Fudong Wang, Gui-Song Xia, Tianfu Wu, Liangpei Zhang
代码链接:
https://github.com/cherubicXN/afm_cvpr2019
作者:Davide Abati, Angelo Porrello, Simone Calderara, Rita Cucchiara
代码链接: https://github.com/aimagelab/novelty-detection
作者:Kuniaki Saito, Yoshitaka Ushiku, Tatsuya Harada, Kate Saenko
作者:Tao Wang, Xiaopeng Zhang, Li Yuan, Jiashi Feng
作者:Liu Li, Mai Xu, Xiaofei Wang, Lai Jiang, Hanruo Liu
论文链接:https://arxiv.org/abs/1903.10831
作者:Yihui He, Chenchen Zhu, Jianren Wang, Marios Savvides, Xiangyu Zhang
代码链接:https://github.com/yihui-he/KL-Loss
作者:Eran Goldman , Roei Herzig, Aviv Eisenschtat, Jacob Goldberger, Tal Hassner
作者:Zhenheng Yang, Dhruv Mahajan, Deepti Ghadiyaram, Ram Nevatia, Vignesh Ramanathan
作者:Jason Ku, Alex D. Pon, Steven L. Waslander
作者:Jiangmiao Pang, Kai Chen, Jianping Shi, Huajun Feng, Wanli Ouyang, Dahua Lin
论文链接:https://arxiv.org/abs/1904.02701
作者:Moein Shakeri, Hong Zhang
作者:Xudong Wang, Zhaowei Cai, Dashan Gao, Nuno Vasconcelos
项目链接:
http://www.svcl.ucsd.edu/projects/universal-detection/
作者:Golnaz Ghiasi, Tsung-Yi Lin, Ruoming Pang, Quoc V. Le
作者:Daniel Pérez-Cabo, David Jiménez-Cabello, Artur Costa-Pazo, Roberto J. López-Sastre
作者:Zhe Wu, Li Su, Qingming Huang
论文链接:https://arxiv.org/abs/1904.08739
作者:Jiang-Jiang Liu, Qibin Hou, Ming-Ming Cheng, Jiashi Feng, Jianmin Jiang
源码链接:http://mmcheng.net/poolnet/
作者:Lu Zhang; Huchuan Lu ; Zhe Lin ; Jianming Zhang; You He
论文链接:https://drive.google.com/open?id=1JcZMHBXEX-7AR1P010OXg_wCCC5HukeZ (需要申请)
作者:Lijie Liu1, Jiwen Lu, Chunjing Xu, Qi Tian, Jie Zhou
作者:Runmin Wu, Mengyang Feng, Wenlong Guan, Dong Wang, Huchuan Lu, Errui Ding
论文链接:待定
源码链接:
https://github.com/JosephineRabbit/MLMSNet
作者:Rui Zhu, Shifeng Zhang, Xiaobo Wang, Longyin Wen, Hailin Shi, Liefeng Bo, Tao Mei
源码链接:
https://github.com/KimSoybean/ScratchDet
论文解读: CVPR 2019 Oral | 京东AI研究院提出 ScratchDet:随机初始化训练SSD目标检测器
*延伸阅读
点击左下角 “ 阅读原文 ”, 即可申请加入极市 目标跟踪、目标检测、工业检测、人脸方向、视觉竞赛等技术交流群, 更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流, 一起来让思想之光照的更远吧~
觉得有用麻烦给个好看啦~
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 我的2017年文章汇总——JDK源码篇
- 关于这些天杭州各厂面试汇总(从JavaScript各种原理到框架源码)
- CVPR2019最全整理:全部论文下载,Github源码汇总、直播视频、论文解读等
- Redis 应用场景汇总
- Metal,启程【章节汇总】
- DevOps最全术语汇总
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。