内容简介:课程大纲阶段一 算法与优化基础
在过去的2-3天时间里,Google的XLNet又刷爆了朋友圈。在面对技术的快速迭代更新, 我们也在第一时间把XLNet纳入到了训练营体系里,在模型发布的第三天就完成了所有教研的工作。
2019年贪心学院的《NLP自然语言处理训练营》作为业界的标杆,已培养出大量的NLP算法工程师,均已走上相应的工作岗位,而我们期待着他们将为2019年的中国NLP技术带去新鲜血液和希望。
本期的训练营在原有的基础上做了大幅度内容的更新,在内容的广度和深度上做了大幅度的调整。可以认为目前的 课程体系在全网应该是最全面而且最具有挑战性的 。如果你想深入去接触这个领域,并且想让自己与时俱进,相信选择我们是正确的选择。
到底是什么样的课程让业内的呼声这么的大,
如果你还不知道 《NLP自然语言处理训练营》
那么你可能错过了太多~ 离最近一期开课仅剩2天!
训练营既包含大量的案例教学,也包含学员需要完成的项目作业,还有每周的作业以及论文解读。
课程大纲
阶段一 算法与优化基础
【核心知识点】
. Dynamic Time Warping
. Earth Mover's Distance
. 维特比算法
. LR, SVM, KKT
. Kernel Tick, Mercer's Theorem
. 梯度下降法,收敛性分析
. L0, L1, L2, L-Infinity Norm
. Grid Search, Bayesian Optimization
. 随机森林、GBDT, XGBoost回顾
. 凸函数、凸集、Lagrange Duality
. Projected Gradient Descent
. Linear/Quadratic Programming
. Integer/Semi-definite Programming
. NP-completess
. Constraint Relaxation
【实战案例】:
. [作业] 基于Sparse Quadratic Programming的股票投资组合优化策略编写
. [讲解] 基于Earth Mover's Distance的短文本相似度计算
. [讲解] 基于Projected Gradient Descent和非负矩阵分解的词向量学习
. [讲解] 基于Linear Programming的机票定价系统
阶段二 语言模型与序列标注
【核心知识点】
. 文 本预处理技术(tf-idf,Stemming等)
. 文本领域的特征工程
. 倒排表、信息检索技术
. Noisy Channel Model
. N-gram模型,词向量介绍
. 不同的Smoothing Techniques
. Learning to Rank
. Latent Variable Model
. EM算法与Local Optimality
. 有向图模型与无向图模型
. HMM模型、Viterbi、Baum Welch
. Log-Linear Model与参数估计
. CRF模型与Linear-CRF
. CRF的Viterbi Decoding与参数估计
【实战案例】:
. [作业] 基 于无监督学习方法的问答系统搭建
. [作业] 基于监督学习的Aspect-Based 情感分析系统搭建
. [讲解] 基于CRF的命名实体识别
. [讲解] 基于语言模型和Noisy Channel Model的拼写纠错
阶段三 信息抽取、词向量与知识图谱
【核心知识点】
. 命 名实体识别技术
. 信息抽取技术
. Snowball, KnowitAll, RunnerText
. Distant Supervision, 无监督学习方法
. 实体统一、实体消歧义、指代消解
. 知识图谱、实体与关系
. 词向量、Skip-Gram、Negative Sampling
. 矩阵分解、CBOW与Glove向量
. Contexualized Embedding与ELMo
. KL Divergence与 Gaussian Embedding
. 非欧式空间与Pointcare Embedding
. 黎曼空间中的梯度下降法
. 知识图谱嵌入技术
. TransE, NTN 的详解
. Node2Vec详解
. Adversial Learning与KBGAN
【实战案例】:
. [作业] 利 用非结构化数据和信息抽取技术构建知识图谱
. [作业] 任务导向型聊天机器人的搭建
. [讲解] 包含Intent与Entity Extraction的NLU模块实现
. [讲解] 基于SkipGram的推荐系统实现(参考Airbnb论文)
阶段四 深度学习与NLP
【核心知识点】
. Pytorch与Tensorflow详解
. 表示学习,分布式表示技术
. 文本领域中的Disentangling
. 深度神经网络与BP算法详解
. RNN与Vanishing/Exploding Gradient
. LSTM与GRU
. Seq2Seq与注意力机制
. Greedy Decoding与Beam Search
. BI-LSTM-CRF模型
. Neural Turing Machine
. Memory Network
. Self Attention,Transformer以及Transformer-XL.
. Bert的详解
. BERT-BiLSTM-CRF
. GPT,MASS, XLNet
. Low-resource learning
. 深度学习的可视化
. Laywer-wise Relevance Propagation
【实战案例】:
. [作业] 利用纯 Python 实现BP算法
. [作业] 基于Seq2Seq+注意力机制、基于Transformer的机器翻译系统
. [讲解] 基于Transformer的闲聊型聊天机器人
. [讲解] 基于BI-LSTM-CRF和BERT-BiLSTM-CRF在命名实体中的比较
. [讲解] 利用Laywer-wise RP可视化端到端的机器翻译系统
阶段五 贝叶斯模型与NLP
【核心知识点】
. 概率图模型与条件独立
. Markov Blanket
. Dirichlet分布、Multinomial分布
. Beta分布、Conjugate Prior回顾
. Detail Balance
. 主题模型详解
. MCMC与吉布斯采样
. 主题模型与Collapsed Gibbs Sampling
. Metropolis Hasting, Rejection Sampling
. Langevin Dyamics与SGLD
. 分布式SGLD与主题模型
. Dynamic Topic Model
. Supervised Topic Model
. KL Divergence与ELBO
. Variantional Inference, Stochastic VI
. 主题模型与变分法
. Nonparametric Models
. Dirichlet Process
. Chinese Restarant Process
. Bayesian Deep Neural Network
. VAE与Reparametrization trick
. Bayesian RNN/LSTM
. Bayesian Word2Vec
. MMSB
【实战案例】:
. [作业] 利用Collapsed Gibbs Sampler和SGLD对主题模型做Inference
. [讲解] 基于Bayesian-LSTM的命名实体识别
阶段六 开放式项目 (Optional)
【项目介绍】
可以根据自己的兴趣来设计一个NLP领域的课题,课题需要具备一定的挑战,并且有一定的深度。 在项目期间教学团队会提供技术支持
【结果输出】:
完整PPT、代码和Conference-Style Technical Report
【评估流程】:
课程设计紧密围绕学术界最新进展以及工业界的需求,涵盖了所有核心知识点,并且结合了大量实战项目,培养学员的动手能力,解决问题能来以及对知识的深入理解。
注:本文含商业推广内容
部分项目作业
课程适合谁?
-
有良好的机器学习基础,有较强的编程能力
-
对数据结构与算法比较熟悉
-
之后想从事相关研究工作、或者之后想申请国外名校读相关专业的硕士/博士
-
追求技术细节,对背后的why感兴趣,不希望仅仅停留在使用 工具 层面的学员
-
已经在AI领域从事工作,但技术上感觉遇到了瓶颈,想进一步突破的学员
-
希望在工作中可以根据业务需求能够提出新的模型,做一些创新
-
对NLP领域最新知识体系想有更深入的学习
-
想转型到一线做AI工程师的学员
课程特色
-
内容上包含了作为 AI顶级工程师 必备的核心技术体系
-
内容上包含了大量最前沿的技术
-
具备一定的 挑战性和深度 ,区别于市面上的其他同类的课程。
-
理论与实战的结合,所有的理论会本质层面讲起,而且非常通俗易懂,即便很难理解的BERT, Bayesian NN也会让你能够听得懂并且能够理解。 每一个重要的知识点会配备实战讲解以及核心代码review.
-
包含具有挑战性的课程项目作业和理论作业,这些会帮助你更深入地理解学过的知识点
-
配备顶尖讲师团队,均在NLP和机器学习领域有很深的研究和工作经验
教学模式
我们主要采用 直播 的方式, 一周4-5次的直播教学 , 包括2次的main lectures, 1-2次的discussion session (讲解某一个实战、必备基础、案例或者技术上的延伸), 1次的paper reading session (每周会assign一篇必备论文,并且直播解读)。教学模式上也参考了美国顶级院校的教学体系。 以下为其中一周的课程安排,供参考。
服务体系
看完被吓着了?这玩意学不会可咋整啊?
大魔头是不会让你以智商为理由逃跑的,
我们为大家配备了全一线工程师的助教团队,
严防死守以学不会为由的逃兵出现!
-
全职助教实时答疑
看视频的时候:"诶?这步怎么推导出来的呢?"
编程跑项目实践的时候:"诶?这段代码是干嘛的呢?"
看论文的时候:"诶?为什么好像看懂了,又不知道在讲什么呢?"
不管你在学习过程中遇到多少阻碍,你都可以通过以下4种方式解决:
-
直接在线问导师;
-
或者记录到共享文档中,等待每日固定时间的直播答疑;
-
学习社群中全职助教,24h随时提问答疑
-
共同的问题在Review Session里面做讲解
注:每次答疑,班主任都会进行记录,以便学员实时查阅。
来自师兄师姐的疑问:
-
编写一些技术类文章
通过在知乎上发表相关技术文章进行自我成果检验,同时也是一种思想碰撞的方式,导师会对发表的每一篇文章写一个详细的评语。万一不小心成为一个大V了呢?
虽然写文章的过程万分痛苦,学习群里半夜哀嚎遍野,但看一看抓着头发写出来的文章结果还是非常喜人的!看着自己收获的点赞数,大家都默默地感谢起大魔头的无情!
这种满满的成就感,让大家一篇接一篇的写了下去!
个个都立刻变身成了知乎大牛~
-
Project项目
除了文章,算法工程师立命的根本--项目代码,大魔头更是不会放过的。每次在Gitlab上布置的作业,大魔头都会带领助教团队会予以详细的批改和反馈。并逼着你不断的优化!
课程导师
看了这么多,是不是非常崇拜设计出如此地狱式学习计划的大牛,那就来正式认识一下这位训练营中人人听了都闻风丧胆,但又让人崇拜+喜爱+欲罢不能的训练营大魔头:
李文哲
NLP、知识图谱领域专家
美国南加州大学博士,曾任凡普金科(爱钱进)首席科学家,美国亚马逊/高盛高级工程师,AI量化投资公司首席科学家兼投资总监。在AAAI, KDD, AISTATS等顶会上发表过15篇以上论文,其中3篇获得Best Paper Award,累计数百次引用。
如何毕业
进去企业敲门砖的”毕业证“如何得到?
大魔头之所以是大魔头不单单因为技术牛,更因为他同时掌管着训练营学员的生杀大权!光学习是怎么可以的,我们的训练营是有考核的!
大魔头给学习成果定义了充分的可量化标准。贪心学院红头文件晒给你看:
-
考核 机制
我们也有严格的考核机制,包括项目作业的完成度、直播到课率、文章写作等要素。而且根据这些考核来确定毕业生以及优秀毕业生。针对于优秀毕业生,我们会提供很丰厚的激励机制。
再被大魔头折磨了多个日日夜夜后,大家不但没有放弃学习,而且很快乐地学习着,随便截几个图:
我确定了我们的魔鬼训练营没有误人子弟,我们的课程真的帮助到大家有人实质的技能提升或帮助大家拿到offer。今年六月,大魔头携带着他的第四期《NLP自然语言处理集中营》再度回归了。
2019NLP能这么骚,就要看你了~
这个被全网尊称为能找到的
最体系化,
最有挑战的,
实践性最强的,
最烧脑的,
AI自然语言处理训练营等着你们!
勇士们让我看到你们的双手!
报名方式
请扫描下面的二维码咨询课程
我们是谁? 我们是一家专注于人工智能领域的在线教育公司,由一群有情怀的硅谷科学家来创办。我们提供最专业的AI课程以及每月4-5期的免费AI类公开课。关注此公众号(“贪心科技”)可以获得相关的信息。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 坚持不懈地学习该如何保持节奏
- 如何写一篇掌控面试节奏的简历?
- 安博通:请跟上节奏来到安全可视化世界
- 你想少加班吗?那就要把握好开发节奏
- 苹果WWDC印象:凶残的节奏、低调亮剑AI
- 紧跟 Java 节奏,单独拆分的 JavaFX 将缩短迭代周期
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
The Little MLer
Matthias Felleisen、Daniel P. Friedman、Duane Bibby、Robin Milner / The MIT Press / 1998-2-19 / USD 34.00
The book, written in the style of The Little Schemer, introduces instructors, students, and practicioners to type-directed functional programming. It covers basic types, quickly moves into datatypes, ......一起来看看 《The Little MLer》 这本书的介绍吧!