这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

栏目: 数据库 · 发布时间: 5年前

内容简介:文/编辑 | 言有三有三AI坚持三个原则,

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

文/编辑 | 言有三

有三AI坚持三个原则, 只做原创,不打广告,不跟新闻 ,所以涨粉很慢。不过,令我们自豪的是,尽管至今只有6000来粉丝,但是在我们5000粉丝的时候,也出现了 很多1000+阅读量(打开率超过20%)的文章,将近三分之一的文章打开率也超过了10%,论打开率就算是全网咱也是Top了吧。 今天就来仔细盘点一下吧,按照时间顺序从后往前。

有三AI扑克牌

作为一周年纪念,我们推出了集 深度学习开源框架,深度学习模型架构,深度学习学习习惯,AI研究院与产品于一身 的有三AI扑克牌,欢迎大家点击查看,已经陆续发货了噢!

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

言有三写的新书

一周年之际,有三也出版了一本新书,名为《 深度学习之图像识别 核心技术与案例实战 》,这是一本以计算机视觉技术为依托,讲述深度学习中的核心技术的书籍,同时配套有大量实战案例。 覆盖深度学习理论(最优化,损失目标设计),数据使用(常用数据集,数据获取,标注与增强),可视化(数据与模型),模型优化,三大计算机视觉任务的发展。

虽然公式的印刷出了一点问题(本周会勘误),本书仍然不失为一本很干货的书。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

25篇CV工程师进阶文章

深度学习CV算法工程师从入门到初级面试有多远,大概是25篇文章的距离,这是有三AI修行之路的《白身境》和《初识境》两大系列的完结, 从编程基础,图像基础,数学基础讲到深度学习理论和实践基础 ,最适合新手系统性进阶和学习,也适合老手巩固自己的基础,这篇文章在知乎上也是全网热点。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

GitHub机器/深度学习资料大全

我相信真的很难有比我们这个资料更全的了,这个文章在知乎上也是全网热点。 从大综述,到论文,社区, 课程,项目,数据集,研究领域,工具,无所不有,无所不包。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

网络图绘制

这篇文章不仅是知乎热点,也被很多的AI大号转载,包括AI科技大本营,雷锋网等等。 就是教你怎么绘制好看的网络图,实用,酷炫!

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

如何跟踪Arxiv的论文

作为一个AI方向的学习者,需要经常 从arxiv.org中获取和跟踪最新的论文 ,arxiv-sanity就是一个用于论文跟踪的好工具,你值得拥有。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

有三AILab

虽然我们不跟新闻,但是不代表不跟踪最新的技术,所以我们 成立有三AILab ,欢迎感兴趣与符合条件的朋友加入。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

季划

有三AI没有想过要做培训,但是仍然会以师徒制带很少一部分人,内容很多,收费也很低。学习方式包括 图文+视频+一对一指导+每周线下+在线直播+项目孵化 。学会为止,还有最后 10天 的报名机会,之后将不接受报名,新的夏季划也会涨价。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

创业第一天专栏介绍

三月份我离职创业,当时还只有150多篇原创文章和10多个专栏,现在又增加了将近100篇,可见这两个月还是非常勤快的。

创业第一天,有三AI扔出了深度学习的150多篇文章和10多个专栏

相比当时的文章,其实更建议大家阅读我们一周年的总结,生态更加的丰富。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

裸辞文章

2019年3月3日, 鼓起勇气揭开裸辞生活的第一天 。还有不到两年就三十岁了的时间里,想开始做一些事情,彼时心态,历历在目。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

图像分类的输入为何是224*224

这是有三AI 1000问 的第一个问题, 什么深度学习图像分类的输入多是224*224 ,这个见惯不惯,不一定有标准答案的问题。如今1000问已经并入知识星球,当初这个系列也是人气很高的。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

AI研究院总结

在这个专栏中,我们和大家一起分享了国内12大研究院的背景,从最开始介绍的历史最悠久的微软亚洲研究院,到最后介绍的低调务实的网易人工智能,带大家领略了 每个研究院的研究方向,团队情况,欣赏了各大研究院的拳头产品

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

计算机视觉研究方向

这里详细介绍了 深度学习在图像分类,分割,目标检测,目标跟踪,图像滤波与降噪, 图像增强,风格化,三维重建,图像检索,生成对抗网络GAN 等领域中的关键技术和特点。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

弃用windows

要说服一个新手 放弃windows拥抱Linux ,并不是那么容易的事情,但是,你只有走出第一步才知道这一件事情是多么的美妙。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

人脸数据集

一文道尽了人脸的数据集,囊括了 人脸检测,关键点检测,人脸识别,人脸表情,人脸年龄,人脸姿态几乎所有方向 ,当时文章都险些超过公众号最大长度。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

除了以上已经突破1000+,20%打开率的10多篇文章,我们还有很多超过10%打开率的文章,其中不乏超过900阅读量的文章,就等着大家热情点赞和转发突破1000了!

这里我们无法将其全部放出,不然本文就太长了,挑选其中对大家最有帮助的35篇吧,更多可以查看往期链接。

残差网络的前世今生与原理

在深度学习模型发展史中,残差网络因其简单而有效的结构与异常有效的结果而占据了非常重要的位置,在这里我们重点讲述了它的 来龙去脉,相关架构的发展,有效性的相关研究

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

一周年总结

今年五月中旬有三AI一周年了, 过去的一年里,有三 从算法干到前端,后端,从编辑干到产品,运营,设计 ,创建了一个不小的生态。在这里,便是 说说我们的 初衷,生态和愿景

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

TensorFlow2.0专栏

TensorFlow2.0 Alpha版发布后,API也发生了很大的改变,基本上相当于 重新学习tensorflow,我们开设了2.0专栏。 其中Keras便是必须使用的接口了,那就一起来吐槽全世界都是Keras吧。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

有三AI小程序上线

5月份的时候有三把小程序推上了线,这是一个为季划学员 展示自己项目 的舞台,也是将来有三AILab展示作品的舞台,大家感兴趣的可以扫码体验一下。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

网络宽度与模型性能

一个深度学习网络的宽度究竟会如何影响模型的性能呢?在这里有三通过理论和实验结果来完整分析了 网络宽度的发展与模型性能的关系,以及如何对宽度进行设计

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

AI 1000问总结

在AI1000问 我们提出了很多 容易被忽视,普通但是不简单,可以引申很多思考的问题 ,包括为何通用分类网络输入大小是224*224,为什么大家喜欢用小卷积,训练中为什么要分验证集和测试集,现在这个系列已经转移到知识星球中。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

优秀的深度学习从业者习惯

一个优秀的深度学习从业者,必然是技能全面,擅长学习的人,在这里我们总结了从 看论文到写代码,从刷论坛到刷比赛 的一系列资源供大家挑选学习。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

AI产品专栏-抖音

为了让大家的学习更加贴近工业界实战,我们开设了专栏《AI产品》,对 其中的关键技术进行剖析

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

AI大咖

为了让大家更多地了解行业大咖,我们开设了专栏《AI大咖》, 不仅要了解follow他们的研究,也打听他们的八卦 ,领略大牛的风骨,如今已经3期了噢,相应的GitHub项目也推出了。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

有三VIP技术顾问

有三AI VIP就是买断有三的时间了,可以就任何技术问题进行随时讨论,同时会 赠送有三AI所有付费产品和内部资料,包括知识星球,文化产品,录制的一系列视频,线下交流,直播 等等。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

推荐的工业界比赛

从深度学习新手到有志于站到算法之颠的老鸟,都可以通过参加一些比赛来获取经验或者证明自己,这里就推荐了 AI图像领域值得参加的一些比赛,有大众的有小众的,也有别具特色的。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

国外高质量学习社区

机器之心等媒体不是喜欢从Medium等平台翻译文章吗,我们在这里系统性地介绍了国内外的优质论坛媒体,包括 新闻信息平台Reddit,创作平台Medium,问答社区Quora 等,从此你也可以获取第一手资料进行学习。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

如何使用公众号学习

天下公众号有很多种,有 信息媒体号,学术论坛号,个人博客号,系列教程号 ,每一类号都有它自己的特色,如何利用好这些公众号进行学习呢。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

数据驱动的深度学习

数据压榨越狠,人工智能就越成功,在这里,我们分析了 数据与各类学习系统的关系,在深度学习的各个发展阶段对数据的使用 ,了解从模型的结构设计,模型的优化参数选择,数据的使用策略的最新发展 ,深度学习正在全面走向自动化。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

数据增强综述

很多实际的项目,我们都难以有充足的数据来完成任务,要保证完美的完成任务,有两件事情需要做好:(1)寻找更多的数据。(2)充分利用已有的数据进行数据增强,这里就是 对当前数据增强方法的综述,覆盖有监督无监督,单样本多样本方法等

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

为什么大家喜欢用小卷积

我们知道现在在构建CNN时大家喜欢用3*3的卷积,而不是早期的5*5,7*7等更大尺寸的卷积,如 vgg,mobilenet等系列网络中全部使用了3*3的卷积 。那么你知道为什么这样做吗?

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

Github免费爬虫总结

在开发实际项目的时候,你经常没有足够多的数据,需要自己去想办法获取,这个时候常常需要用到爬虫。然而找来找去,很可能找了很久都找不到 既免费又好用的爬虫,这里就总结了GitHub上面最好的爬虫 ,它很可能就是项目成功的开始。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

如何做笔记

在学习的过程中做好总结记录是非常重要的,那么这里要聊的就是作为程序员, 有哪些笔记 工具 可以提高工作效率呢

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

12大深度学习开源框架项目

这是有三AI开源的第一个GitHub项目,在这里给大家捋清楚12大深度学习开源框架的快速入门, 熟练掌握不同任务数据的准备和使用,熟练掌握模型的定义,熟练掌握训练过程和结果的可视化,到熟练掌握训练方法和测试方法 ,真正快速掌握框架。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

有三说深度学习

虽然有三录制了很多视频,但是 真正拿出去上线的只有网易云上的《有三说深度学习》 ,其余的都私藏了,如果你想听听,不妨加入。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

提升写代码效率

想成为一个优秀的AI算法工程师必须要熟练使用Linux,从 桌面管理,编程管理到项目管理 ,这都是推荐你应该掌握的,一定会大大提升工作效率。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

深度学习理论学习

在《AI初识境》这一个专栏中,我们给大家从 神经网络背景与基础,讲到了深度学习中的激活函数,池化,参数初始化,归一化,优化方法,正则项与泛化能力,讲到了深度学习中的评测指标,优化目标 ,以及新手开始做训练时的注意事项。这些都是深度学习必备的扎实基础,我们讲述的 都覆盖了最前沿的研究,绝不简单

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

深度学习新手做项目的建议

一个新手做项目时总是不知道轻重缓急,也容易犯一些低级的错误, 这篇文章 不是教你如何调参,而是教你不要在调参之前胡搞

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

损失函数

优化目标/损失函数无疑对一个深度学习系统来说是至关重要的,这里就说说深度学习中 常见的损失函数(loss),覆盖分类,回归任务以及生成对抗网络

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

弱监督图像分割综述

大家知道北航的博士孙叔桥最近在有三AI开设了《图像分割模型》专栏,而这篇 弱监督图像分割综述 也是出自她的笔下,被各大号转载。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

FlyAI比赛平台

我们不打广告,但是如果是非常好的东西就会直接推荐,FlyAI便是一个 免费GPU,企业真实数据集和需求,能力变现为一身的平台 ,推荐大家参与。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

深度学习模型评估

一个深度学习模型在各类任务中的表现都需要定量的指标进行评估,才能够进行横向的PK比较,在这里就说说 分类,回归,质量评估,生成模型中常用的指标 ,以计算机视觉任务为例。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

如何增加深度学习模型的泛化能力

机器学习方法训练出来一个模型,希望它不仅仅是对于已知的数据(训练集)性能表现良好,对于未知的数据(测试集)也应该表现良好,也就是具有良好的generalization能力,这就是泛化能力。这里说的便是 化和正则化有关的内容

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

搜狗AI主播背后的核心技术

这也是属于《AI产品》的内容,只是当时专栏还未设置,背后包含了 三维重建,表情合成,唇语合成,语音合成等一系列技术的剖析

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

12大主流CNN模型架构

在这里,我们给大家回顾了 深度学习中的各类具有代表性的CNN模型,详细分析了各类模型的特点,设计思想 。当然,这一个系列不可能包含所有的模型,但是我们可以从中洞见最核心的思想。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

深度学习必备图像基础

学深度学习计算机视觉,当然是从夯实图像基础开始了。从 图像的起源,到数字图像的基本概念,数字图像处理的基础 ,这是系统而全面的介绍。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

Faster RCNN源代码解读

Faster R-CNN项目无疑是最优秀的目标检测框架之一, 在这里我们 详细剖析了各个模块的源代码

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

闲聊图像分割

有三做的时间最久的就是图像分割了, 从传统的阈值法,聚类,图割,水平集,到深度学习 ,这里就是我对图像分割算法的大总结。

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

softmax loss解读

softmax loss是我们最熟悉的loss之一了,分类任务中使用它,分割任务中依然使用它。在这里,我们 推导它的公式,总结了它的变种,这篇文章几乎就是有三AI的开始

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

除了上面的30多篇,还有至少20篇以上截止目前阅读量600以上,文末往期包含了一些。总的来说公众号有超过70篇,大概1/3的文章超过10%的打开率,在没有做简单转发之外的任何运营手段的背景下,充分证明了文章的质量以及受欢迎的程度,希望能够给大家带来真正的帮助。

谢谢点赞和转发的朋友,我们继续努力!

直播预告

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

今日看图猜技术

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

网络结构

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

有三AI生态

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

更多更新的内容请移步知乎专栏《有三AI学院》

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货

转载文章请后台联系

侵权必究

这便是有三AI一年的底蕴,那些5000粉丝1000阅读量的AI技术干货


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Algorithms in Java, Part 5

Algorithms in Java, Part 5

Robert Sedgewick / Addison-Wesley Professional / 2003-7-25 / USD 54.99

Algorithms in Java, Third Edition, Part 5: Graph Algorithms is the second book in Sedgewick's thoroughly revised and rewritten series. The first book, Parts 1-4, addresses fundamental algorithms, data......一起来看看 《Algorithms in Java, Part 5》 这本书的介绍吧!

SHA 加密
SHA 加密

SHA 加密工具

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具