内容简介:最新版本在基础框架、预测引擎、模型建设、分布式训练上的具体更新情况如下:服务器预测
雷锋网 AI 科技评论按: 日前,百度 PaddlePaddle 更新至 Fluid v1.3 版本,一如既往地, Fluid v1.3 版本在基础框架、预测引擎、模型建设、分布式训练各个方向上都实现了多项更新,而其中比较重要的更新包括:
-
统一 Executor 和 ParallelExecutor 接口,用户只需通过 CompiledProgram 将单卡模型转化多卡模型,并利用 Executor 进行训练或者预测。
-
正式发布 AnalysisConfig 预测接口,支持计算图分析、算子融合等优化,并支持利用 Intel MKLDNN、Nvidia TensorRT 子图引擎等第三方库的加速.
-
模型库新增发布 PaddlePaddle 视频模型库,提供 5 个视频分类经典模型以及适合视频分类任务的通用骨架代码,用户可一键式高效配置模型完成训练和评测。
-
新增支持 NLP 语义表示 BERT 模型,支持多机多卡训练,支持混合精度训练,训练速度对比主流实现提升 50%+,提供完整部署示例。
-
发布大规模稀疏参数服务器 Benchmark,CPU 多机异步训练发布显著提升点击率预估任务 IO 吞吐的 built-in reader,多机多卡训练性能多方面提升。
最新版本在基础框架、预测引擎、模型建设、分布式训练上的具体更新情况如下:
基础框架
安装
-
新增 Linux 和 MacOS 下的中文版本辅助安装脚本,提供交互式安装方式,协助用户在复杂环境下快速完成 PaddlePaddle 安装。
-
Windows 支持优化:新增 cuda8,cudnn7 的 GPU 支持,新增 AVX 指令集、MKLDNN、mnist 数据集支持。修复 Windows 加载 Linux/Mac 下同版本 paddle 训练模型的问题。
增加动态图基础功能
-
动态图 tracer、 autograd、python Layer/PyLayer,动态图支持 MLP、GAN、ptbRNN、Resnet 模型,动态图支持 Optimizer、GPU 训练。
Executor 和 ParallelExecutor 接口优化
-
对 Executor 和 ParallelExecutor 接口进行统一,用户只需通过 CompiledProgram 将单卡模型转化多卡模型,并利用 Executor 进行训练或者预测。
-
ParallelExecutor 优化: 对 MultiDevSSAGraphBuilder 进行重构,使得 MultiDevSSAGraphBuilder 更易扩展。去除 ParallelExecutor 中的设备锁,提升 ParallelExecutor 多卡调度性能。
中间表达 IR 和 Pass 方面的优化
-
完善 C++ IR graph 的 python 接口以及 C++ IR pass 的 python 接口。
-
在 framework.py 中新增 IRGraph 类,为在 Python 层编写 IR Pass 做准备。
-
新增支持网络无锁更新的 Pass。
-
新增 QuantizationTransformPass,此为 Quantization Aware Training 量化模式训练前的图修改操作部分。
内存和显存方面的优化
-
新增支持在编译时加入 Jemalloc 作为动态链接库,提升内存管理的性能,降低基础框架内存管理开销。
-
新增 memory optimize,inplace pass, memory pool early deletion 等显存优化策略。
-
新增支持网络无锁更新的 Pass。
-
新增 QuantizationTransformPass,此为 Quantization Aware Training 量化模式训练前的图修改操作部分。
Operator 整体层面的优化
-
每个 op 在执行前只做一次 scope 查询,减少读写锁操作(原来需要做 1~5 次 scope 查询)。
-
新增 Temporary Allocator,减少 op 中的同步操作。
-
新增 py_func operator,支持 python op 接入,用户可以借助 py_func Operator 快速实现所需要的特有操作。
INTEL FP32 计算相关优化
-
优化 density_prior_box operator,单 op 四线程提速 3 倍。
-
优化 Stack operator,单 op 提速 16 倍。
-
开发 Transpose,Concat 和 Conv3d 三个基于 MKLDNN 的 kernel。
-
修复 lrn operator 中 MKLDNN kernel 精度 bug,同时单 op 提速 1.3 倍。
-
修复 MKLDNN 初始化占用 5G 内存的问题,目前初始化占用 500MB。
-
减少从 MKLDNN OP kernel 到非 MKLDNN OP kernel 时不必要的 reorder。
完善 CPU JitKernel
-
sequence pooling 的 jitkernel,纯 op 提升 2 倍。
-
softmax 的 jitkernel,纯 op 提升 2 倍,同时使得 Bert 模型 CPU 预测提升 26%。
-
常见的基本逻辑:向量的每个元素求平方 kVSquare、矩阵乘法 kMatMul、向量的最大值 kHMax、向量所有元素的和 kHSum。
其他
-
Fluid v1.3 版本还重构 DDim,Variable Type 等,能够降低基础框架调度开销。
预测引擎
服务器预测
正式发布 AnalysisConfig 预测接口,支持计算图分析、算子融合等优化,并支持利用 Intel MKLDNN、Nvidia TensorRT 子图引擎等第三方库的加速。
预发布 intel CPU 上的 预测 INT8 离线量化方案
-
开发 Conv2D,Pool2D,Quantize,Dequantize 四个基于 MKL-DNN 的 INT8 kernel。
-
预发布 Calibration 的 3 个核心 Python API(paddle.fluid.contrib.Calibrator)。
-
开发 Calibration 工具,保证 FP32 和 INT8 的精度在 ResNet-50 和 MobileNet-V1 在 ImageNet 验证数据集上相差在 1% 内。
-
支持 Intel Xeon CascadeLake Server(VNNI 指令)及 Intel Xeon SkyLake Server,性能提升约为 1.33 倍。
CPU 预测速度提升
-
fuse sequence pooling concatop,支持 N (<200) 个 sequence_pooling op concat 起来组成一个新 op,整体使得 seqpool 模型 CPU 预测提升 56%。
-
fuse 连续重复的 fc op 为一个大 op,使得 seqpool 模型 CPU 预测速度提升 15%。
-
fuse 逻辑为 ((X∗Y).2−(X.2∗Y.2)).∗scalar 的 op 组合 , 使得 seqpool 模型 CPU 预测速度提升 8.2%。
-
针对输入 tensor 元素个数为 1 的情况,优化 compare_op 的 CPU Kernel。
新增 Paddle-TRT 对 Calibration INT8 的支持,GPU 预测速度提升
-
模型 VGG,Resnet50 上预测速度达到了 Paddle-TRT float32 的两倍性能。
-
模型 VGG,Resnet50 在 imagenet 数据集上测试,精度下降 0.3% 以内。
算子融合
-
增加 fc 和 con 相关两个 fuse,作用于 conv_op CUDNN kernel。
-
新增 Conv+Affine Channel 的融合 pass,Faster RCNN 运行的性能提升 26.8%。
-
新增 Transpose+Flatten+Concat 融合 pass,MobilenetSSD 模型性能提升 15%。
-
实现 beam_search operator 的 CUDA Kernel,并且将相应的 top-k、elementwise_add、reshape、log 计算融合到 beam_search operator 中。
功能完善及易用性提升
-
新增 C++ IR graph 的 Python 接口。
-
新增预测库的 Python 接口。
-
服务端预测支持从内存加载模型。
其他
-
删除 legacy V2 代码。从 1.3 版本起,不再支持 V1&V2 老版本功能。
-
修复 Paddle-TRT elementwise-mul 模型运行出现问题的 bug。
-
修复 Paddle-TRT trt_engine stream 多个连续输入情况下模型输出结果异常的 bug。
移动端预测
效率优化,常见模型预测速度提升
-
int8 预测支持 dequantize 和其他 op(batch normalization/relu/elementwise add)进行自动 kernel 融合。
-
transpose2 operator 对于 shuffle channel 操作进行优化。
-
gru operator 使用 neon 指令进行优化,并针对 batch size 为 1 时进行优化。
-
优化和实现 pooling,支持任意的 padding。
-
优化和实现 batch normalization、softmax、elementwise add。
新增支持多个输入和多个输出的模型预测
新增实现 prelu6 operator、cast operator、top_k operator
修复 int8 offline 量化溢出结果不对的问题
修复 winograd 实现在输入 feature map 的 height 和 width 不相等时结果可能为 0 的 bug
模型建设
PaddleCV 智能视觉
-
新增发布 PaddlePaddle 视频模型库,包括五个视频分类模型:Attention Cluster、NeXtVLAD、LSTM,、stNet、TSN。提供适合视频分类任务的通用骨架代码,包括数据读取和预处理、训练和预测、网络模型以及指标计算等多个模块。用户根据需要添加自己的网络模型,直接复用其他模块的代码,快速部署模型。
-
新增支持目标检测 Mask R-CNN 模型,效果与主流实现打平。
-
语义分割 DeepLabV3+模型,depthwise_conv op 融合,显存优化,显存占用对比上一版本减少 50%。
PaddleNLP 智能文本处理
-
新增支持 NLP 语义表示 BERT 模型,支持多机多卡训练,支持混合精度训练,训练速度对比主流实现提升 50%+,提供完整部署示例。
-
机器翻译 Transformer 模型优化解码计算,decoder 中加入对 encoder output 计算结果的 cache,预测速度提升一倍。
PaddleRec 智能推荐
-
Sequence Semantic Retrieval 新增单机多线程、单机多卡运行示例,添加预测功能、数据预处理优化,完善部署示例。
-
GRU4Rec 新增负采样功能,使用 bpr loss 和 cross entropy loss 的效果与原作打平。
分布式训练
大规模稀疏参数服务器 Benchmark 发布
-
测试真实业务场景下,特征规模百亿、样本平均特征数 1k 的点击率预估任务,在 batch=512 情况下,100worker 加速比 95.0,吞吐量 1.56M/s。
CPU 多机异步训练
-
发布面向点击率预估任务的 built-in reader,Criteo 数据集下 IO 总吞吐提升 1300%。
GPU 多机多卡水平扩展性能提升
-
新增并行模式:PG(ParallelGraph)、MP(Multi-Process),独立 GPU 卡之间的计算,提升性能同时,不影响模型精度。
-
在 ResNet50 模型,单机 8 卡 V100 下,PG, MP 模式提升训练性能 30% 以上;4 机 32 卡,PG 模式提速 46%,MP 模式提速 60%。
-
在 BERT 模型,8 卡 V100 下,PG, MP 模式提升训练性能 26%。
-
Multi-Process 模式相比 Parallel-Graph 模式对 Reader 速度敏感度不高。
GPU 多机多卡垂直扩展性能提升
-
新增功能:fp16 和混合精度训练
-
Fp16 单机单卡加速情况:ResNet50 提速约 87%,BERT 提速约 70%。
-
BERT 同时开启 PG 和混合精度,单机 8 卡下单位时间吞吐提升 120%。
-
ResNet50 同时开启混合精度训练和 MP 模式,在 V100 单机 8 卡、4 机 32 卡下,单位时间吞吐提升 100%。
典型模型收敛速度优化
-
新增功能:动态 Batch Size,动态 Image Resize 方法。
-
Resnet50 on Imagenet 数据集:训练收敛轮数下降为标准训练方法的 1/3 左右。
VisualDL
-
VisualDL graph 支持 Paddle fluid 保存的模型可视化展示。
安装参考网址 : http://paddlepaddle.org/documentation/docs/zh/1.3/beginners_guide/install/index_cn.html
PaddlePaddle Fluid v1.3 版本项目开源地址: https://github.com/PaddlePaddle/Paddle/blob/develop/README.md 雷锋网雷锋网 (公众号:雷锋网)
雷锋网原创文章,未经授权禁止转载。详情见 转载须知 。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- React Suite 4.4.0 版本发布 ????,带来了一些新特性
- MicroProfile 2.0 在路上,看看 1.3 版本带来了哪些优点
- MariaDB 10.3 首个 GA 版本 10.3.7 发布,带来多项更新
- 数据生成工具 ZenData 发布 1.7 版本,全新设计工具带来更佳体验
- MariaDB 10.4 首个 GA 版本 10.4.6 发布,带来多项更新
- MariaDB 10.4 首个 GA 版本 10.4.6 发布,带来多项更新
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
渐进增强的Web设计
[美] Todd Parker、[英] Patty Toland、[英] Scott Jehl、[法] Maggie Costello Wachs / 牛化成 / 人民邮电出版社 / 2014-1 / 69.00
本书由全球著名Web设计公司Filament集团两位创始人和两位开发主力联手打造,其中Scott Jehl还是jQuery团队成员。四位作者具有多年的网站设计和开发经验,曾为网站、无线设备、Web应用设计过众多高度实用的用户界面,受到了高度赞扬。本书展示了如何利用渐进增强方法开发网站,从而获得最佳用户体验。本书既是理解渐进增强原则和益处的实用指南,也用详细的案例分析,目的是向设计师以及开发人员传授......一起来看看 《渐进增强的Web设计》 这本书的介绍吧!